Eine Einordnung vom Google Doktor.
Wie Google AI Overviews funktionieren, war lange Spekulation. Am 15. Mai 2026 hat Google in seiner Search Central eine Seite veröffentlicht, die das erstmals offiziell beschreibt — und mit einem Großteil dessen aufräumt, was aktuell als „GEO-Hack” verkauft wird: Optimizing your website for generative AI features on Google Search. Wir gehen den Guide durch — und übersetzen ihn in das, was wir bei JSH Marketing seit Monaten unseren Kunden sagen.
Inhalt dieser Seite
Googles Kernaussage zu AI Overviews in einem Satz
Google formuliert es selbst: Optimieren für Generative AI Search ist Optimieren für Google Search — und das heißt: SEO. AEO („Answer Engine Optimization”) und GEO („Generative Engine Optimization”) sind aus Googles Perspektive keine eigenständigen Disziplinen, sondern Etiketten für dieselbe Arbeit unter neuem Namen.
Das ist keine semantische Spitzfindigkeit. Es ist die direkte Konsequenz aus der Architektur: Die Generative-AI-Features greifen auf denselben Suchindex und dieselben Ranking-Systeme zu wie die klassische Suche. Wer im organischen Index gut platziert ist, wird tendenziell auch in AI Overviews zitiert. Wer dort schlecht steht, wird auch von keiner llms.txt-Datei gerettet.
Wir vertreten diese Position seit über einem Jahr — unter anderem in unserem Artikel zur Unterscheidung zwischen Query und Prompt im Kontext generativer KI und in unserer Analyse zum Stand des GEO-Trackings. Googles aktuelle Publikation ist für uns keine Sensation, sondern eine offizielle Bestätigung.
200+
5,0
zufriedene Kunden





Wie Google AI Overviews funktionieren: RAG und Query Fan-Out
Hier liegt der für uns spannendste Teil des Guides — denn Google nennt die zwei Mechanismen hinter den AI Overviews jetzt erstmals beim Namen.
Retrieval-Augmented Generation (RAG) — Grounding am Live-Index
Das Sprachmodell formuliert die Antwort nicht aus seinem Trainingswissen heraus, sondern bezieht in Echtzeit Inhalte aus dem Google-Index. Die Ranking-Systeme entscheiden, welche Seiten überhaupt in das „Sichtfeld” des Modells gelangen. Anschließend synthetisiert das Modell die Antwort und verlinkt sichtbar auf die Quellen, die seine Aussagen stützen.
Wichtige Abgrenzung: Genau hier unterscheidet sich der AI Overview von einem reinen LLM-Chat. Wenn du ChatGPT ohne aktivierte Websuche eine Frage stellst, antwortet das Modell aus seinen Trainingsdaten — eingefroren zu einem bestimmten Stichtag, ohne Quellenangabe, ohne Live-Bezug zur aktuellen Webrealität. Der Google AI Overview macht das Gegenteil: Er groundet jede Antwort am aktuellen Suchindex. Das ist der Grund, warum klassisches SEO so direkt in die AI Overviews durchschlägt — und warum Sichtbarkeit dort so eng mit organischen Rankings korreliert. Wer nicht im Index ist, kann auch nicht zitiert werden.
Query Fan-Out — eine Frage, viele Suchen
Definition. Query Fan-Out bezeichnet den Mechanismus, mit dem ein Sprachmodell eine einzelne Nutzeranfrage intern in mehrere thematisch verwandte Suchqueries auffächert. Diese Queries werden parallel im Index ausgeführt, jede mit eigenem Ranking-Ergebnis, und die zusammengeführten Treffer fließen gemeinsam in die generierte Antwort ein. Das Modell tut das ohne Zutun des Nutzers — eine einzelne Frage erzeugt intern mehrere klassische Suchen.
Google selbst gibt im Guide ein Beispiel: Aus der Frage „Wie repariere ich einen Rasen voller Unkraut?” werden parallel Queries wie „beste Herbizide für Rasen”, „Unkraut ohne Chemie entfernen” und „Unkraut im Rasen vorbeugen”. Diese Queries laufen alle separat durchs Ranking, und die Treffer fließen gemeinsam in die generierte Antwort.
Was das strategisch heißt — und was nicht
An dieser Stelle entsteht in vielen Köpfen ein falscher Reflex: „Also brauche ich jetzt für jede Variante eine eigene Seite?” Nein. Genau dieser Reflex führt zu dem, was Google im Guide als Scaled Content Abuse brandmarkt — Massenproduktion von Seiten für jede denkbare Query-Variante, primär zur Manipulation von Rankings.
Der eigentliche Schluss ist ein anderer, und er verändert, wie wir Content-Cluster künftig denken müssen:
- Eine einzelne Seite muss thematisch breiter und tiefer werden. Wenn Google für eine User-Frage parallel drei bis fünf Fan-Out-Queries ausführt, gewinnt die Seite, die zu möglichst vielen dieser Queries qualifiziert. Im Rasen-Beispiel: Die Seite, die gleichzeitig Mähschnitt, chemische Optionen, mechanische Alternativen und Prävention behandelt, schlägt drei dünne Seiten, die jeweils nur einen Aspekt abdecken.
- Cluster-Logik bleibt — wird aber holistischer. Innerhalb eines thematischen Clusters dürfen einzelne Seiten weiterhin Spezialthemen vertiefen. Aber die zentralen Hub-Seiten müssen die Breite tragen.
- Synonyme und Randthemen sind keine zusätzlichen Seiten, sondern Bestandteil derselben Seite. Google versteht semantische Zusammenhänge. Eine SEO-Seite, die auch von „Suchmaschinenoptimierung”, „Google-Ranking verbessern”, „organische Sichtbarkeit” und „Top-10-Platzierung” handelt, deckt automatisch mehr Fan-Out-Queries ab — ohne dass dafür separate Unterseiten nötig wären.
Beispiel: SEO Agentur München
Übertragen auf unsere eigene Money-Page SEO Agentur München: Wer in München eine SEO-Agentur sucht, stellt selten exakt diese Query. Die tatsächlichen Suchanfragen — und die daraus resultierenden Fan-Out-Queries — sehen eher so aus:
- „Was kostet eine SEO Agentur in München?”
- „Beste SEO Agentur München“
- „SEO Berater München Empfehlung”
- „Lokales SEO München”
- „Google-Ranking verbessern München”
- „Online-Marketing-Agentur München SEO”
Konsequenz: Unsere Silo-Seite muss all diese Aspekte abdecken — Preisstruktur, Auszeichnungen, Beraterprofil, lokale Expertise, konkrete Outcomes. Genau das tun wir. Nicht weil wir Long-Tail-Keywords abjagen, sondern weil wir wollen, dass Googles Modell unsere Seite zu möglichst vielen Fan-Out-Varianten als relevanteste Quelle identifiziert.
Das ist der Unterschied zwischen Keyword-Denken und Query-Denken. Keyword-Denken fragt: Welche Wörter muss ich einbauen? Query-Denken fragt: Welche thematische Tiefe brauche ich, damit ein Modell mich für eine ganze Familie verwandter Anfragen als relevant erkennt?
200+
5,0
zufriedene Kunden





Fünf Mythen rund um Google AI Overviews, die offiziell tot sind
Google führt im Guide eine eigene „Mythbusting”-Sektion. Wir gehen sie der Reihe nach durch.
Mythos 1: llms.txt und spezielle AI-Markup-Dateien
Für Google Search hat llms.txt keinerlei Wirkung. Google indexiert die Datei zwar gegebenenfalls — sie wird aber nicht anders behandelt als jede andere Textdatei. Eine differenzierte Anmerkung gehört dazu: Für andere KI-Systeme jenseits von Google (etwa Perplexity, Anthropic, OpenAI) existiert derzeit kein einheitlicher Standard, und einzelne Anbieter signalisieren punktuelles Interesse an solchen Markup-Konventionen. Solange jedoch keine offizielle, breit unterstützte Spezifikation existiert, ist llms.txt bestenfalls ein Experiment — und ganz sicher kein „GEO-Service”, den eine Agentur als Pflichtleistung in Rechnung stellen sollte.
Mythos 2: „Chunking” des Contents
Die Idee, Inhalte in mundgerechte Häppchen zu zerlegen, damit das Sprachmodell sie „besser versteht”, ist Unfug. Google selbst sagt es: Ihre Systeme verstehen Nuancen über ganze Seiten hinweg und extrahieren die relevante Passage selbst. Die ideale Seitenlänge gibt es nicht. Schreibt für Menschen, nicht für vermutete Modell-Präferenzen.
Anmerkung: Für eigene RAG-Pipelines (z. B. interne KI-Assistenten mit Vektorstore) kann strukturiertes Content-Chunking durchaus sinnvoll sein; das ist aber eine andere Disziplin als öffentliche Suchsichtbarkeit.
Mythos 3: Inhalte „AI-gerecht” umschreiben
Eine eigene Schreibweise für AI Overviews existiert nicht. Die Modelle verstehen Synonyme und Bedeutungszusammenhänge. Wer denkt, er müsse jeden Long-Tail-Begriff einbauen oder in besonders „klarem KI-Stil” formulieren, optimiert für ein Phantom. Unsere Position dazu reicht über Google hinaus: Auch für ChatGPT, Claude, Perplexity oder Gemini gibt es keine „AI-Schreibweise”. Diese Modelle sind auf menschlicher Sprache trainiert. Was Menschen klar verstehen, verstehen sie auch. Was für Menschen ein generisches, austauschbares Stück Content ist, ist es auch für sie. Es gibt keinen Hack, der diese Logik umgeht.
Mythos 4: Inauthentische Mentions kaufen
Die „GEO-Berater”, die in Reddit-Threads, Foren und auf Listicle-Seiten gezielt Markennennungen platzieren, damit AI-Modelle den Brand „lernen”, arbeiten gegen Googles Spam-Systeme. Generative AI Search nutzt dieselben Anti-Spam-Filter wie der klassische Index. Künstliche Mentions wirken — wenn überhaupt — kurzfristig und tragen ein massives Penalty-Risiko.
Wichtig zu differenzieren: Für reine Trainingsdaten-LLMs (etwa ChatGPT ohne Websuche) zählt langfristige, organisch gewachsene Markenpräsenz im Web sehr wohl — aber genau diese entsteht durch echte Sichtbarkeit, echte Kundenstimmen und echte Fachbeiträge, nicht durch gekaufte Reddit-Posts. „Inauthentisch” bleibt auf jeder Plattform ein Spam-Signal.
Mythos 5: Strukturierte Daten als AI-Pflicht
Für Google AI Overviews ist Schema.org-Markup nicht erforderlich — Google selbst sagt das offiziell. Wichtig ist die Abgrenzung: Diese Aussage gilt für Googles eigene Architektur. Für andere KI-Systeme, insbesondere RAG-basierte Plattformen wie Perplexity oder spezialisierte Crawler, kann maschinenlesbare Strukturierung sehr wohl ein Vorteil sein — sie werten strukturierte Quellen teils explizit auf. Pauschale „AI-Booster”-Versprechen über alle Plattformen hinweg sind dennoch unseriös. Schema Markup bleibt unabhängig davon entscheidend für klassische Rich Results in der SERP — und das allein ist Grund genug, es zu implementieren.
200+
5,0
zufriedene Kunden





Was wirklich wirkt: Non-Commodity-Content
Google führt im Guide einen Begriff ein, der es verdient, festgehalten zu werden: Non-Commodity-Content.
Definition. Als Commodity-Content bezeichnet Google austauschbare, generische Inhalte — Allgemeinwissen, beliebig reproduzierbar, in beliebiger Menge im Netz vorhanden, ohne klare Verfasserautorität. Non-Commodity-Content ist das genaue Gegenteil: Inhalte mit eigenem Standpunkt, originaler Erfahrung, fachlicher Tiefe oder einzigartiger Perspektive. Inhalte, die ein Sprachmodell nicht erfinden kann, weil sie auf einer realen Quelle beruhen, die im Modell selbst nicht enthalten ist.
Google macht den Unterschied an zwei Titeln deutlich:
- Commodity: „7 Tipps für Erstkäufer einer Immobilie” — Allgemeinwissen, hundertfach im Netz vorhanden, ohne klare Verfasserautorität.
- Non-Commodity: „Warum wir auf die Inspektion verzichtet haben — und Geld gespart haben: Ein Blick in die Abwasserleitung” — Erfahrungsbericht, konkrete Zahlen, Entscheidung mit Risiko, persönlicher Standpunkt.
Das ist exakt die Linie, die wir bei JSH seit Jahren fahren. Wer eine Münchner SEO-Agentur sucht und auf einer Seite landet, die im Zehntel-Schritt dieselben „Was ist SEO?”-Erklärungen liefert wie 500 andere Seiten, wird in AI Overviews nicht erscheinen. Wer dagegen einen dokumentierten Migrationsfall beschreibt — mit Vorher/Nachher-Rankings, mit konkreter htaccess-Datei, mit Disavow-Verlauf — der wird sowohl klassisch ranken als auch im AI-Snippet zitiert.
Die Regel ist einfach: Wenn dein Text durch ein Sprachmodell ersetzt werden könnte, wird er es auch.
Was bleibt: Foundational SEO
Der Guide listet die Pflichtaufgaben, die durch Generative AI Search nicht abgelöst, sondern bestätigt werden:
- Indexierbarkeit und Crawlbarkeit. Eine Seite, die nicht im Index ist, wird auch nicht in einem AI Overview zitiert. Search Console verifizieren, technische Hürden ausräumen.
- Saubere technische Struktur. Semantisches HTML hilft — nicht weil das Sprachmodell es zwingend braucht, sondern weil es Screenreadern, Browser-Agenten und Crawlern zugutekommt.
- Page Experience. Core Web Vitals, mobile Darstellung, klare Trennung zwischen Hauptinhalt und Drumherum. Mehr dazu in unserem Leitfaden Core Web Vitals optimieren.
- Duplicate Content reduzieren. Crawl-Budget verschwenden für Seiten, die keiner braucht, ist auch im AI-Zeitalter unbeliebt. Siehe auch Keyword-Kannibalisierung erkennen und auflösen.
- Local Business und Produktdaten. Google Business Profile, Merchant Center Feeds. AI-Antworten zu lokalen Suchanfragen und Produkten greifen direkt auf diese Quellen zu.
Wie du das praktisch umsetzt, haben wir in unserem Praxis-Guide für ein Ranking in Google AI Overviews ausführlich dokumentiert — inklusive Checkliste und Content-Architektur
200+
5,0
zufriedene Kunden





Agentic Experiences: Der nächste Layer
Der Guide enthält einen kurzen, aber neuen Abschnitt zum agentischen Web. Google nennt explizit Browser-Agenten, die im Auftrag des Users Aufgaben übernehmen — Reservierungen, Produktvergleiche, Buchungen. Diese Agenten interpretieren die Website über ihre DOM-Struktur, über visuelle Renderings und über den Accessibility-Baum.
Erwähnt wird auch das Universal Commerce Protocol (UCP) — ein emergierender Standard, über den Search-Agenten künftig direkt mit Shops und Service-Anbietern interagieren sollen.
Das ist die nächste Schicht. Wer heute schon eine saubere semantische HTML-Struktur, klare ARIA-Attribute, lesbare Tastaturnavigation und eine vernünftige Accessibility-Tree-Architektur hat, ist für diese Schicht bereits gerüstet. Mehr zu unserer Perspektive in Das Agentic Web und was es für SEO bedeutet.
Wer für Google AI Overviews optimieren will, optimiert SEO
Wir lesen Googles Guide nicht als Sensation. Wir lesen ihn als Bestätigung. Was wir unseren Retainer-Kunden seit Monaten empfehlen, deckt sich Punkt für Punkt mit dem, was Google jetzt offiziell publiziert:
- Domain-weite organische Sichtbarkeit statt punktueller Long-Tail-Jagd — wegen Query Fan-Out.
- Thematisch breite und tiefe Seiten statt zerstückelter Mini-Seiten pro Query-Variante.
- Non-Commodity-Content mit echter Erfahrung, eigenem Standpunkt, dokumentierten Fällen. Kein KI-generierter Allgemeinplatz.
- Technische Sauberkeit — Crawling, Indexing, Core Web Vitals, semantisches HTML. Pflicht, nicht Kür.
- Keine GEO-Hacks. Keine llms.txt-Theater, keine inauthentischen Mentions, kein Chunking, kein „AI-Rewriting” bestehender Inhalte.
- Tracking mit dem richtigen Werkzeug. Wir nutzen Rankscale für AI-Sichtbarkeit — als Diagnoseinstrument, nicht als Optimierungsziel.
Eine wichtige Einschränkung
Googles Aussage „GEO ist SEO” gilt — und das ist nicht trivial — primär für Google selbst und für andere KI-Systeme, die nach demselben Muster funktionieren: Live-Index-Zugriff, Retrieval-Augmented Generation, sichtbare Quellenangabe. Dazu zählen etwa Perplexity, Bing Copilot oder der Google AI Mode.
Für KI-Systeme, die ihre Antworten primär aus Trainingsdaten generieren — etwa ChatGPT ohne aktivierte Websuche oder Claude in Standardkonfigurationen — gelten teils andere Mechanismen. Hier zählt nicht die aktuelle Indexposition, sondern die Frage, ob und wie ein Brand, ein Produkt oder ein Fachbeitrag in den Trainingsdaten des Modells präsent ist. Das hängt von langfristiger Markenwahrnehmung, breiter Erwähnung über Jahre hinweg und der Qualität der bestehenden öffentlichen Quellenlage ab — Dinge, die mit klassischem SEO zwar überlappen, aber nicht identisch sind.
Welcher Hebel für eine konkrete Marke der richtige ist, hängt also von Zielgruppe und Zielsetzung ab. Wer primär über Google sichtbar werden will, optimiert SEO — so wie Google es im aktuellen Guide beschreibt. Wer zusätzlich in ChatGPT-Antworten zu fachlichen Themen auftauchen will, braucht ergänzende Überlegungen, die über reines SEO hinausgehen. Keine davon heißt jedoch „GEO buchen” als Standardprodukt einer Agentur.
Wer wissen will, was für die eigene Situation sinnvoll ist, kann uns ansprechen. Wir verkaufen keine Pakete für Phantome — wir diagnostizieren erst, dann verschreiben wir.
Quelle: Google Search Central: Optimizing your website for generative AI features on Google Search. Stand: 15.05.2026. developers.google.com/search/docs/fundamentals/ai-optimization-guide