GEO/SEO-News

Query Fan-Out-Analyse: Wie KI-Modelle suchen und was das für Content-Optimierung bedeutet

KI-Modelle beantworten Fragen nicht mit einer einzelnen Suche. Wenn sie Websuche nutzen, generieren sie mehrere interne Suchanfragen, die als Query Fan-Outs bezeichnet werden. Ein KI-Modell zerlegt eine Nutzerfrage in Teilaspekte, untersucht verschiedene Perspektiven und prüft Informationen gegen mehrere Quellen. Die KI-SEO-Agentur DEJAN AI hat 365.920 Query Fan-Outs von Google (Gemini), OpenAI (GPT) und Amazon (Nova) erfasst und in einer umfassenden Analyse ausgewertet. Die Ergebnisse zeigen, wie unterschiedlich die drei Anbieter bei der Generierung interner Suchanfragen vorgehen.

Analyse von Query Fan-Outs bei drei KI-Modellen

Wenn ein Nutzer eine Frage stellt, führen KI-Modelle diese nicht direkt aus. Stattdessen generieren sie mehrere eigene Suchanfragen, die auf der ursprünglichen Anfrage basieren. Diese Query Fan-Outs dienen dazu, komplexe Themen in kleinere Einheiten aufzuteilen und Informationen aus verschiedenen Quellen zu verifizieren.

Dan Petrovic von DEJAN AI beschreibt, wie verschiedene KI-Modelle bei der Informationsbeschaffung im Web vorgehen. Die Analyse umfasst 365.920 Query Fan-Outs von Google (Gemini), OpenAI (GPT) und Amazon (Nova). Die Daten stammen aus realen Arbeitsumgebungen über mehrere Projekte hinweg.

Die Verteilung der erfassten Queries:

  • Google (Gemini): 158.186 Queries
  • OpenAI (GPT): 207.174 Queries
  • Amazon (Nova): 560 Queries

Die Analyse zeigt, welche Suchanfragen KI-Modelle tatsächlich generieren, wenn Nutzer eine Frage stellen. Diese internen Queries bestimmen, welche Inhalte die Modelle finden und als Quelle nutzen.

Vertrauen Sie auf echte Qualität – lassen Sie sich jetzt beraten!

KI-generierte Suchanfragen sind deutlich länger

Die Ergebnisse zeigen: KI-generierte Suchanfragen sind deutlich länger als typische Nutzer-Suchanfragen. Die durchschnittliche Länge liegt zwischen 52 und 60 Zeichen. Die überwiegende Mehrheit besteht aus sieben oder mehr Wörtern (71,1 %). Nur 3,9 % der Queries enthalten ein bis drei Wörter.
OpenAI GPT generiert die längsten Queries mit durchschnittlich 60 Zeichen, gefolgt von Amazon Nova mit 59 Zeichen. Google Gemini liegt bei 52 Zeichen.

Die Verteilung nach Wortanzahl zeigt deutliche Unterschiede zwischen den Anbietern:

  • Google: 64,9 % der Queries bestehen aus sieben oder mehr Wörtern
  • OpenAI: 75,8 % der Queries bestehen aus sieben oder mehr Wörtern
  • Amazon: 83,6 % der Queries bestehen aus sieben oder mehr Wörtern

Kurze Queries mit ein bis drei Wörtern sind selten. Google generiert diese in 4,5 % der Fälle, OpenAI in 3,4 % und Amazon nur in 0,2 %.

Unterschiedliche sprachliche Strategien der drei Anbieter

Die Analyse zeigt, wie unterschiedlich die drei Anbieter ihre Suchanfragen aufbauen: OpenAI setzt stark auf Nomen. 58,4 % aller Wörter in den generierten Queries sind Nomen, davon 18,9 % Eigennamen. Google liegt bei nur 8,6 % Eigennamen. OpenAI generiert deutlich mehr entitätsspezifische Suchanfragen, die gezielt nach bestimmten Personen, Orten oder Organisationen suchen.
Amazon nutzt überdurchschnittlich viele Adjektive. Der Anteil liegt bei 18,6 %, während Google und OpenAI nur rund 10 % erreichen. Amazon-Queries enthalten häufiger qualifizierende Begriffe wie „beste", „top" oder „effektivste".
Google verwendet mehr W-Fragen und Verben. Die Queries sind stärker als ausformulierte Fragen strukturiert und nutzen häufiger Fragewörter wie „was", „wie" oder „welche".
OpenAI nutzt doppelt so viele Zahlen wie die Konkurrenz (5,3 %). Das deutet auf Suchanfragen hin, die gezielt nach Jahreszahlen oder spezifischen Mengen suchen.

Relevanz für Content-Optimierung

Die unterschiedlichen Query-Strategien der KI-Modelle haben direkte Auswirkungen auf die Content-Optimierung. Als GEO-Agentur unterstützt seowerk Unternehmen dabei, Inhalte für verschiedene KI-Modelle zu optimieren. Wer versteht, wie die verschiedenen Anbieter ihre Suchanfragen formulieren, kann Inhalte gezielter darauf ausrichten.

Für OpenAI-Modelle empfiehlt sich eine stärkere Fokussierung auf spezifische Entitäten. Inhalte sollten konkrete Namen, Organisationen und Orte klar benennen. Auch numerische Informationen wie Jahreszahlen, Statistiken und Mengenangaben erhöhen die Auffindbarkeit.
Bei Amazon-Modellen spielen beschreibende und bewertende Formulierungen eine größere Rolle. Inhalte, die Vergleiche, Bewertungen oder qualifizierende Aussagen enthalten, werden eher gefunden. Begriffe wie „beste Lösung", „effektivste Methode" oder „top Anbieter" passen zur Query-Strategie.
Google-Modelle reagieren stärker auf fragenbasierte Inhalte. Da Gemini häufiger W-Fragen generiert, erhöhen Strukturen, die direkte Antworten auf Fragen liefern, die Chance, als Quelle genutzt zu werden. FAQ-Formate und klar formulierte Problemlösungen passen zur Query-Struktur.

Die Analyse zeigt: KI-Modelle nutzen unterschiedliche Strategien bei der Informationsbeschaffung. Diese Unterschiede zu kennen, ermöglicht eine gezieltere Ausrichtung von Inhalten auf die jeweiligen Modelle.

Quelle: DEJAN AI

Kostenlose Erstberatung! 

*“ zeigt erforderliche Felder an

Dieses Feld dient zur Validierung und sollte nicht verändert werden.
Dieses Feld wird bei der Anzeige des Formulars ausgeblendet
  |    |  
In einer neuen Case Study zeigt seowerk, wie die eigene SEO-Agentur seit über zwölf Jahren nachhaltige Suchmaschinenoptimierung betreibt und diesen Ansatz seit 2023 gezielt um Generative Engine Optimization (GEO), KI-Optimierung und SEO für ChatGPT erweitert hat.
Weiterlesen
Die Suche nach AGI führt KI Forschung an ihre Grenzen, verbindet technische Ambitionen mit ethischen Risiken und stellt Gesellschaften vor die Frage, wie universelle Maschinenintelligenz kontrolliert, ausgerichtet und sinnvoll in soziale und wirtschaftliche Strukturen eingebettet werden kann.
Weiterlesen
Mit der Transformer Architektur beginnt eine neue Ära, in der KI nicht nur versteht, sondern schöpft und dank Attention Mechanismen Texte, Bilder und Ideen generiert und so den Weg für moderne LLMs und kreative Anwendungen bereitet.
Weiterlesen
Der Deep-Learning-Boom entsteht aus Datenflut, GPU-Power und neuen Netzarchitekturen und entfesselt eine KI-Revolution, die Forschung und Industrie grundlegend verändert und den Übergang von symbolischer Logik zu selbstlernenden Systemen beschleunigt.
Weiterlesen
Nach Jahren des Stillstands erlebten neuronale Netze in den 1980ern mit Backpropagation eine Wiedergeburt. Mehrschichtige Netze lernten komplexe Muster automatisch, übertrafen Expertensysteme und legten den Grundstein für das spätere Deep Learning.
Weiterlesen
In den 1980er Jahren feierten Expertensysteme die KI kurzzeitig als wirtschaftlichen Erfolg. Hohe Wartungskosten, begrenzte Domänen und teure Hardware führten jedoch zum Scheitern und lösten den Zweiten KI Winter aus.
Weiterlesen
Ab etwa 1974 erlebt die symbolische KI eine Phase tiefer Ernüchterung. Die kombinatorische Explosion und gescheiterte Generalisierung aus Spielzeugwelten führen zu massiven Kürzungen der Fördergelder, ersten Rückzügen der Forschung und zum Ersten KI Winter.
Weiterlesen
Teil 15 – In den 1960er Jahren dominiert die symbolische KI das Feld und erhebt die regelbasierte Manipulation von Symbolen zum Kern der Intelligenz. Programme wie Logic Theorist und GPS befeuern den Glauben, menschliches Denken vollständig in formale Strukturen übersetzen zu können.
Weiterlesen
Teil 14: Der Dartmouth Workshop von 1956 definiert erstmals ein eigenes Forschungsfeld und gibt der Disziplin ihren Namen. Die Vision einer programmierbaren Intelligenz vereint führende Köpfe und markiert den Beginn einer Ära, geprägt von Ehrgeiz, Optimismus und bahnbrechenden Ideen.
Weiterlesen
Teil 13 – In den frühen Nachkriegsjahren verschmelzen biologische Modelle, kybernetische Ideen und elektronische Architektur zu einem neuen Verständnis von Intelligenz. McCulloch, Pitts, Wiener und von Neumann schaffen die Grundlagen, auf denen moderne KI Systeme technisch und theoretisch aufbauen.
Weiterlesen
Teil 12 – Alan Turing lieferte 1936 mit der Turing Maschine die abstrakte Definition des Algorithmus und klärte die Grenzen der Berechenbarkeit.
Weiterlesen
Am Vorabend der modernen Informatik spitzte sich die Frage zu, was Berechnung überhaupt ist. Die Krise der Mathematik machte sichtbar, dass eine abstrakte Definition des Algorithmus fehlte und damit der letzte theoretische Schlüssel zur späteren KI Entwicklung weltweit.
Weiterlesen
Kontakt
Leichte Sprache
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram