Verwendung der Seitengeschwindigkeit (Page Speed) im Ranking der mobilen Suche

Menschen wollen so schnell wie möglich Antworten auf ihre Fragen bekommen. Studien zeigen, dass die Geschwindigkeit einer Webseite den Menschen wirklich wichtig ist. Obwohl die Geschwindigkeit schon seit einiger Zeit im Google Ranking verwendet wird, war dieses Signal auf die Desktop-Suche fokussiert. Anfang des Jahres kündigte Google an, dass ab Juli 2018 die Seitengeschwindigkeit ein Rankingfaktor für die mobile Suche sein wird.

Das „Speed Update“, wie Google es nennt, wirkt sich nur auf Seiten aus, die den Benutzern das langsamste Erlebnis bieten und nur einen kleinen Prozentsatz der Anfragen betreffen. Es gilt der gleiche Standard für alle Seiten, unabhängig von der Technik, mit der die Seite erstellt wurde. Die Absicht der Suchanfrage ist immer noch ein sehr starkes Signal, so dass eine langsame Seite immer noch hochrangig sein kann, wenn sie einen großen, relevanten Inhalt hat.

Google Page Speed im Mobile Search Ranking

Google ermutigt jedoch Entwickler, darüber nachzudenken, wie sich die Performance auf die Erfahrung eines Benutzers mit seiner Seite auswirkt und zudem zu berücksichtigen, wie sich eine Vielzahl von User Experience-Metriken auswirken. Obwohl es kein Tool gibt, das direkt anzeigt, ob eine Seite von diesem neuen Ranking-Faktor betroffen ist, gibt es hier einige Ressourcen, die zur Bewertung der Leistung einer Seite verwendet werden können.

  • Lighthouse, ein automatisiertes Tool und Teil von Chrome Developer Tools zur Überprüfung der Qualität (Leistung, Zugänglichkeit und mehr) von Webseiten
  • Chrome User Experience Report, ein öffentlicher Datensatz der wichtigsten User Experience-Metriken für beliebte Ziele im Web, wie sie von Chrome-Benutzern unter realen Bedingungen erlebt werden
  • PageSpeed Insights, ein Tool, das anzeigt, wie gut eine Seite im Chrome UX Report abschneidet und Performance-Optimierungen vorschlägt

Sie sind auf der Suche nach einem Facebook Ads Kurs oder einem Google Ads Seminar? Dann melden Sie sich bei uns!

Nach Jahren des Stillstands erlebten neuronale Netze in den 1980ern mit Backpropagation eine Wiedergeburt. Mehrschichtige Netze lernten komplexe Muster automatisch, übertrafen Expertensysteme und legten den Grundstein für das spätere Deep Learning.
Weiterlesen
In den 1980er Jahren feierten Expertensysteme die KI kurzzeitig als wirtschaftlichen Erfolg. Hohe Wartungskosten, begrenzte Domänen und teure Hardware führten jedoch zum Scheitern und lösten den Zweiten KI Winter aus.
Weiterlesen
Ab etwa 1974 erlebt die symbolische KI eine Phase tiefer Ernüchterung. Die kombinatorische Explosion und gescheiterte Generalisierung aus Spielzeugwelten führen zu massiven Kürzungen der Fördergelder, ersten Rückzügen der Forschung und zum Ersten KI Winter.
Weiterlesen
In den 1960er Jahren dominiert die symbolische KI das Feld und erhebt die regelbasierte Manipulation von Symbolen zum Kern der Intelligenz. Programme wie Logic Theorist und GPS befeuern den Glauben, menschliches Denken vollständig in formale Strukturen übersetzen zu können.
Weiterlesen
xDer Dartmouth Workshop von 1956 definiert erstmals ein eigenes Forschungsfeld und gibt der Disziplin ihren Namen. Die Vision einer programmierbaren Intelligenz vereint führende Köpfe und markiert den Beginn einer Ära, geprägt von Ehrgeiz, Optimismus und bahnbrechenden Ideen.
Weiterlesen
In den frühen Nachkriegsjahren verschmelzen biologische Modelle, kybernetische Ideen und elektronische Architektur zu einem neuen Verständnis von Intelligenz. McCulloch, Pitts, Wiener und von Neumann schaffen die Grundlagen, auf denen moderne KI Systeme technisch und theoretisch aufbauen.
Weiterlesen
Alan Turing definiert inmitten der logischen Krise erstmals, was ein Algorithmus ist, und erschafft mit der universellen Maschine das Fundament der Informatik. Sein Modell legt die theoretischen Grenzen des Berechenbaren offen und prägt jede spätere KI Entwicklung maßgeblich.
Weiterlesen
Am Vorabend der modernen Informatik spitzte sich die Frage zu, was Berechnung überhaupt ist. Die Krise der Mathematik machte sichtbar, dass eine abstrakte Definition des Algorithmus fehlte und damit der letzte theoretische Schlüssel zur späteren KI Entwicklung weltweit.
Weiterlesen
Im 19. Jahrhundert entsteht durch die Erforschung von Reflexbögen und Nervenzellen erstmals ein mechanistisches Verständnis des Gehirns. Diese biologische Perspektive liefert die Blaupause künstlicher Neuronen und prägt die Grundlagen späterer Modelle lernfähiger KI-Systeme.
Weiterlesen
Babbage und Lovelace verbinden mechanische Präzision mit visionärer Abstraktion und formen den Ursprung programmierbarer Maschinen. Ihre Ideen zu universeller Berechnung und symbolischer Manipulation bilden das theoretische Fundament moderner Informatik und eröffnen erste Wege zu algorithmischer Intelligenz.
Weiterlesen
George Boole verwandelt abstraktes Denken in berechenbare Struktur und schafft damit das Fundament der digitalen Welt. Seine binäre Logik verbindet Philosophie, Mathematik und frühe Informatik und prägt jede moderne KI bis in ihre elementarsten Schaltkreise.
Weiterlesen
  |    |  
Eine scheinbar denkende Maschine begeistert Europas Salons und entlarvt zugleich die menschliche Sehnsucht nach künstlicher Intelligenz. Der Schachtürke offenbart, wie eng Illusion, Strategie und technischer Fortschritt schon früh miteinander verflochten waren und bis heute inspirieren.
Weiterlesen
Kontakt
Leichte Sprache
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram