Das Google Core Update Mai 2020 & seine Auswirkungen

Am 4. Mai hat Google das zweite Core Update 2020 veröffentlicht. Rund 2 Wochen kann es dauern, bis das Core Update vollständig ausgerollt ist und alle Veränderungen sichtbar sind. Ziel eines Core Updates ist es, mithilfe von Änderungen am Google-Suchalgorithmus, die über Google erzielten Suchergebnisse qualitativ zu verbessern. Dementsprechend hängen Einbrüche beim Core Update meist mit den Inhalten der Webseiten zusammen.

Google Core Update 2020: Was hat sich verändert?

Veränderungen im Sichtbarkeitsindex zeigen sich bei Webseiten aus den Bereichen Affiliate, Finance, Health, Tech sowie Presseportale und Online-Shops. Außerdem fokussiert sich das Update auf sensible Themen wie E-A-T und die Relevanz von Backlinks. 
Unsere Experten für Suchmaschinenoptimierung haben folgende Beobachtungen zu Rankingveränderungen gemacht.

Verlierer des Google-Updates

  • Affiliate-Seiten, die auf häufig gesuchte und Conversion-orientierte Keywords optimieren und auf Amazon verlinken. Dies könnte einerseits an mangelnder E-A-T (siehe unten) liegen, andererseits haben viele dieser Seiten in der Vergangenheit unnatürlichen Link-Aufbau betrieben, den Google nun laut der Studie von Marie Haynes besser als solchen einstufen kann. Betroffen sind neben lieblos aufgesetzten Affiliate-Seiten auch aufwendig betextete wie z.B. https://www.stromgenerator.pro.

  • Negativ betroffen sind auch mittelgroße Online-Shops, die über wenig Bekanntheit verfügen und bislang für sehr häufig gesuchte Keywords gut platziert waren.

Gewinner des Core-Updates

  • Zu den Gewinnern des Google Core Update 2020 zählen im google.de-Index hingegen die großen Player – zum Beispiel amazon.com und eBay.de. Letzterer Online-Marktplatz konnte seinen Sichtbarkeitsindex um mehr als ein Drittel steigern.

Es lässt sich festhalten, dass sogenannte YMYL-Seiten vom Update betroffen sind. YMYL steht für Your Money or Your Life.

Hierzu zählen Shopping-Seiten, Webseiten zu Finanzen, Gesundheit sowie zu rechtlichen Themen. YMYL-Seiten und deren Inhalte können sich laut Google stark auf persönliche Lebensbereiche wie Glück, Gesundheit, Sicherheit oder finanzielle Stabilität auswirken. Vor allem bei solchen Seiten spielt E-A-T eine große Rolle.

Was ist E-A-T?

E-A-T steht für Expertise, Authority und Trustworthiness. In den Quality Rater Guidelines von Google zählt E-A-T zu den Bewertungskriterien von Webseiten und zielt vor allem auf die Hauptinhalte einer Seite, Referenzen der Autoren sowie die Beziehung zwischen Autor und Inhalt ab. E-A-T hat einen besonders großen Einfluss auf die Seitenqualität und kann somit als Grundlage für gute Rankings bezeichnet werden.

Wie kann man den E-A-T von Webseiten verbessern?

Expertise setzt Informationen und Kompetenz voraus. Der Faktor bezieht sich auf das Fachwissen, das auf den Webseiten präsentiert wird. Qualitativ hochwertige Texte zeigen, dass sich der Autor in seiner Branche und Thema auskennt. Expertise bezieht sich auch auf die Vollständigkeit von Seiteninhalten. Webseiten, auf denen Themen ausführlich behandelt werden, ranken demnach besser, als Webseiten mit kürzeren Inhalten.

Tipps, um Expertise zu zeigen:

  • YMYL-Themen von qualifizierten Experten verfassen lassen
  • Suchintention analysieren und Keyword-Recherchen durchführen
  • Qualitativ hochwertigen Content erstellen

Authority erhält man vor allem durch das Sammeln von Backlinks erreichen. Denn Verlinkungen stellen weiterhin einen der wichtigsten Ranking-Faktoren dar. Dabei ist die Qualität und Quantität von Backlinks entscheidend für die Sichtbarkeit innerhalb der organischen Suche.

Tipps, um Autorität zu vermitteln:

  • Links von relevanten Webseiten einbetten
  • Trust-Faktoren der Webseiten überprüfen
  • Autorität mithilfe von Linkbuilding aufbauen
  |    |  
In einer neuen Case Study zeigt seowerk, wie die eigene SEO-Agentur seit über zwölf Jahren nachhaltige Suchmaschinenoptimierung betreibt und diesen Ansatz seit 2023 gezielt um Generative Engine Optimization (GEO), KI-Optimierung und SEO für ChatGPT erweitert hat.
Weiterlesen
Die Suche nach AGI führt KI Forschung an ihre Grenzen, verbindet technische Ambitionen mit ethischen Risiken und stellt Gesellschaften vor die Frage, wie universelle Maschinenintelligenz kontrolliert, ausgerichtet und sinnvoll in soziale und wirtschaftliche Strukturen eingebettet werden kann.
Weiterlesen
Mit der Transformer Architektur beginnt eine neue Ära, in der KI nicht nur versteht, sondern schöpft und dank Attention Mechanismen Texte, Bilder und Ideen generiert und so den Weg für moderne LLMs und kreative Anwendungen bereitet.
Weiterlesen
Der Deep-Learning-Boom entsteht aus Datenflut, GPU-Power und neuen Netzarchitekturen und entfesselt eine KI-Revolution, die Forschung und Industrie grundlegend verändert und den Übergang von symbolischer Logik zu selbstlernenden Systemen beschleunigt.
Weiterlesen
Nach Jahren des Stillstands erlebten neuronale Netze in den 1980ern mit Backpropagation eine Wiedergeburt. Mehrschichtige Netze lernten komplexe Muster automatisch, übertrafen Expertensysteme und legten den Grundstein für das spätere Deep Learning.
Weiterlesen
In den 1980er Jahren feierten Expertensysteme die KI kurzzeitig als wirtschaftlichen Erfolg. Hohe Wartungskosten, begrenzte Domänen und teure Hardware führten jedoch zum Scheitern und lösten den Zweiten KI Winter aus.
Weiterlesen
Ab etwa 1974 erlebt die symbolische KI eine Phase tiefer Ernüchterung. Die kombinatorische Explosion und gescheiterte Generalisierung aus Spielzeugwelten führen zu massiven Kürzungen der Fördergelder, ersten Rückzügen der Forschung und zum Ersten KI Winter.
Weiterlesen
Teil 15 – In den 1960er Jahren dominiert die symbolische KI das Feld und erhebt die regelbasierte Manipulation von Symbolen zum Kern der Intelligenz. Programme wie Logic Theorist und GPS befeuern den Glauben, menschliches Denken vollständig in formale Strukturen übersetzen zu können.
Weiterlesen
Teil 14: Der Dartmouth Workshop von 1956 definiert erstmals ein eigenes Forschungsfeld und gibt der Disziplin ihren Namen. Die Vision einer programmierbaren Intelligenz vereint führende Köpfe und markiert den Beginn einer Ära, geprägt von Ehrgeiz, Optimismus und bahnbrechenden Ideen.
Weiterlesen
Teil 13 – In den frühen Nachkriegsjahren verschmelzen biologische Modelle, kybernetische Ideen und elektronische Architektur zu einem neuen Verständnis von Intelligenz. McCulloch, Pitts, Wiener und von Neumann schaffen die Grundlagen, auf denen moderne KI Systeme technisch und theoretisch aufbauen.
Weiterlesen
Teil 12 – Alan Turing lieferte 1936 mit der Turing Maschine die abstrakte Definition des Algorithmus und klärte die Grenzen der Berechenbarkeit.
Weiterlesen
Am Vorabend der modernen Informatik spitzte sich die Frage zu, was Berechnung überhaupt ist. Die Krise der Mathematik machte sichtbar, dass eine abstrakte Definition des Algorithmus fehlte und damit der letzte theoretische Schlüssel zur späteren KI Entwicklung weltweit.
Weiterlesen
Kontakt
Leichte Sprache
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram