Google weitet das SEO-Spielfeld: Was nach dem 20-30-Fenster kommt
Sophie
May 16, 2026
Googles 20–30-Fenster ist eine Hardware-Grenze, kein Algorithmus-Design. Gerichtsaussagen und TurboQuant zeigen: Das SEO-Spielfeld weitet sich. Was jetzt zu tun ist.
Das SEO-Spielfeld weitet sich: Warum 20–30 Plätze bald nicht mehr die Spielfläche sind
Über mehr als ein Jahrzehnt war SEO ein Kampf um die erste Seite. Jedes Tool, jeder Audit, jedes Content-Briefing operierte unter derselben Annahme: Googles Ranking-Systeme bewerten am Ende ein relativ festes Set von 20 bis 30 Kandidaten-Seiten. Diese Annahme war so tief im Fundament der Disziplin verankert, dass sie kaum noch als Annahme erkennbar war — sie galt als Naturkonstante.
Sie ist keine. Gerichtsaussagen aus dem US-vs.-Google-Verfahren, öffentliche Statements von Sundar Pichai und ein neues Google-Research-Paper namens TurboQuant zeigen: Das 20–30er-Fenster existiert nur, weil Google sich derzeit kein größeres leisten kann. Es ist eine Hardware-Grenze, keine algorithmische Notwendigkeit. Und genau diese Grenze beginnt zu fallen. Für SEO bedeutet das: Die Regeln des letzten Jahrzehnts werden nicht überholt — sie werden obsolet.
Google bewertet aktuell nur 20 bis 30 Seiten mit seinem teuren Deep-Learning-Ranking-Layer (RankBrain) — nicht aus algorithmischer Notwendigkeit, sondern aus Hardware-Kostengründen. Das hat Pandu Nayak, VP of Search bei Google, 2023 unter Eid im US-Verfahren gegen Google bestätigt. Sundar Pichai bestätigte im April 2026, dass die Memory-Kapazität der zentrale Bottleneck ist. Im März 2026 veröffentlichte Google Research mit TurboQuant eine Technik, die Vektor-Speicher um Faktor 4 bis 4,5 komprimiert und Nearest-Neighbor-Indexing-Kosten auf nahezu null senkt. Wenn diese Technik in die Produktion geht, wächst das bewertbare Kandidaten-Fenster potenziell um ein Vielfaches. Für SEO bedeutet das: Wer heute noch Content gegen Position 1–10 schreibt, optimiert für eine Welt, die in 12–18 Monaten nicht mehr existiert. Die Vorbereitung muss jetzt beginnen — mit drei konkreten Verschiebungen: Retrieval-Messung über Server-Logs, Retrieval-Friendliness statt nur Ranking-Friendliness, und Aufgeben des Top-20–30-Fokus als alleiniger Zielgröße.
Die wichtigste Quelle für das, was wir heute über Googles Ranking-Architektur wissen, ist nicht eine Konferenz-Präsentation oder ein Whitepaper. Es ist ein Gerichtsprotokoll. Am Tag 24 des Verfahrens United States v. Google (Oktober 2023) befragte DOJ-Anwalt Kenneth Dintzer Pandu Nayak, Googles Vice President of Search, unter Eid. Der entscheidende Wortwechsel:
US-Gerichtsprotokoll, Seite 6431Q (DOJ): RankBrain schaut auf die obersten 20 oder 30 Dokumente und kann deren initialen Score anpassen. Ist das korrekt? A (Nayak): Das ist korrekt.
Q: Und RankBrain ist ein kostspieliger Prozess? A: Er ist sicherlich teurer als einige unserer anderen Ranking-Komponenten.
Q: Das ist mit einer der Gründe, warum Sie warten, bis Sie auf die finalen 20 oder 30 herunter sind, bevor Sie RankBrain laufen lassen? A: Das ist korrekt.
Q: RankBrain ist zu teuer, um es auf Hunderte oder Tausende von Ergebnissen anzuwenden? A: Das ist korrekt.
Vier aufeinanderfolgende Bestätigungen. Die Deep-Learning-Komponente, um die SEOs ein Jahrzehnt Theorie gebaut haben, wird absichtlich vom Großteil des Index ferngehalten — weil Google es sich nicht leisten kann, sie breiter anzuwenden.
Die Architektur dahinter ist noch aufschlussreicher. Auf Seite 6406 desselben Protokolls beschrieb Nayak Richter Mehta die klassische Postings-List-Retrieval-Mechanik:
Der Kern des Retrieval-Mechanismus schaut auf die Wörter der Anfrage, läuft die Liste runter — sie heißt Postings-List. Man kann die Listen nicht bis zum Ende durchlaufen, weil sie zu lang wären.
Der Korpus wird auf „Zehntausende" von Seiten reduziert, bevor das Ranking überhaupt beginnt. Aus diesem Pool erreichen nur die obersten 20 bis 30 Ergebnisse den Deep-Learning-Layer. Das widerspricht direkt der Art, wie die meisten SEO-Kommentare Google beschreiben. Die Branche behandelt RankBrain, BERT und andere Deep-Learning-Komponenten als die Definition, wie Google rankt. Unter Eid beschrieb Nayak sie als kostspielige optionale Layer, angewendet auf ein schmales Fenster, das klassische Retrieval bereits gefiltert hat.
Die zentrale Erkenntnis
Jede Praxis in dieser Industrie, die die Top 20–30 als kompetitive Spielfläche behandelt, geht davon aus, dass diese Größe bestehen bleibt. Die Aussage macht klar: Diese Annahme ist contingent, nicht fundamental. Die Zahl hätte 50 oder 500 sein können. Sie landete bei 20–30, weil das war, was Googles Hardware-Budget zuließ.
Die Hardware-Wand: Pichais fünf Bottlenecks
Am 7. April 2026 sprach Sundar Pichai im Cheeky Pint-Podcast mit John Collison und Elad Gil über die aktuelle Lage. Die zentrale Aussage:
Sundar Pichai, April 2026
Um es ganz klar zu sagen: Wir sind supply-constrained. Wir sehen die Nachfrage über alle Surface-Areas.
Pichai nannte fünf konkrete Engpässe, die kurzfristig nicht durch CapEx-Erhöhungen gelöst werden können:
Bottleneck
Was es bedeutet
Wafer-Starts
Kapazitäten in den Halbleiter-Foundries — limitiert durch TSMC & Co.
Memory
Speicher-Chips — laut Pichai der hartester Engpass
Power & Energie
Stromversorgung für Data Center, oft regulatorisch limitiert
Data-Center-Permits
Bauanträge und Genehmigungen — politisch verzögert
Fachkräfte
Spezialisten für Aufbau und Betrieb der Infrastruktur
Pichai betonte vor allem Memory:
Es gibt keinen Weg, wie die führenden Memory-Unternehmen ihre Kapazität dramatisch verbessern werden.
Für den Horizont 2026 bis 2027 kann Google sich am Memory-Bottleneck nicht vorbeikaufen. Höhere Preise schaffen keine zusätzliche Kapazität.
Warum das für SEO direkt relevant ist
Nearest-Neighbor-Vektor-Suche — der Mechanismus hinter moderner semantischer Retrieval — ist memory-bound. Je breiter das Kandidaten-Set, desto mehr Speicher braucht das System. Diese enge Kopplung zwischen Memory-Supply und Retrieval-Breite ist genau die Kostengrenze, von der Nayak unter Eid sprach.
TurboQuant: Der Algorithmus, der die Wand erklimmt
Zwei Wochen vor Pichais Cheeky-Pint-Auftritt veröffentlichte Google Research einen Blog-Post zu einer neuen Technik: TurboQuant. Das zugehörige arXiv-Paper „TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate" wurde von Forschern bei Google Research, Google DeepMind und der NYU verfasst.
Die Kernergebnisse:
4× bis 4,5× Kompression von Vektor-Repräsentationen — bei einer Performance, die mit unkomprimierten Modellen vergleichbar ist (LongBench-Benchmark)
Indexierungs-Zeit für Nearest-Neighbor-Search auf nahezu null reduziert
Übertrifft existierende Product-Quantization-Techniken in der Recall-Leistung
Das Paper deckt zwei Anwendungen ab: KV-Cache-Kompression in Gemini, und Nearest-Neighbor-Search in Vector-Databases. Die meiste Berichterstattung fokussierte auf die Gemini-Anwendung. Die zweite — die Vektor-Datenbank-Anwendung — ist für die Such-Architektur die kritische.
Die ökonomische Konsequenz
Wenn Indexing virtuell kostenlos ist und Memory pro Vektor um Faktor 4 sinkt, gelten die Ökonomien, die RankBrain auf 20–30 Kandidaten begrenzt haben, nicht mehr. Ein System auf derselben Hardware könnte plausibel ein Kandidaten-Set evaluieren, das mehrfach größer ist.
Wichtiger Disclaimer
TurboQuant ist noch nicht als deployed in Google Search bestätigt. Berichte zum Zeitpunkt der Veröffentlichung beschrieben es als Lab-Breakthrough. Das März-2026-Core-Update enthielt keine öffentlichen Hinweise von Google zu Retrieval-Effizienz oder Vektor-Quantisierung. Google hat den Algorithmus publiziert, aber noch nicht deployed. Wichtig: Google nutzt Quantized Vector Search seit Jahren in Produktion über ScaNN — TurboQuant erweitert diesen Ansatz, statt ihn neu zu erfinden.
Die Frage hat sich verschoben — nicht mehr „kann die Kostengrenze verschoben werden?", sondern „was tun SEOs, bevor sie verschoben wird?"
Was sich für SEO ändert
Warten, bis SERPs bestätigen, dass sich das Retrieval geweitet hat, bevor man strategisch reagiert, ist die verlierende Strategie. Die kompetitive Spielfläche verschiebt sich. Wenn das in Rank-Tracking-Tools sichtbar wird, ist die Positionierungs-Arbeit für den nächsten Zyklus bereits abgeschlossen — von anderen.
SEO heute (20–30-Fenster)
✗ Briefings gegen „was rankt für diese Query"
✗ Optimierung für Positionen 1–10
✗ Topical Authority als Hauptmetrik
✗ Backlink-Aufbau für engen Wettbewerber-Kreis
✗ Ranking-Tracking als Erfolgs-KPI
✗ Annahme: Top 20–30 bleibt die Spielfläche
SEO morgen (geweitetes Fenster)
✓ Retrieval-Eligibility messen: Erscheint die Seite überhaupt im Kandidaten-Set?
✓ Retrieval-Friendliness auditieren: klarer Claim in ersten 100 Wörtern
✓ Multi-Signal-Authority statt nur Topical Authority
✓ Server-Log-Analyse für KI-Crawler
✓ Brand-Mentions als Retrieval-Signal
✓ Inhalte stark genug für ein breiteres Set
Die Verschiebung ist nicht nur technisch — sie ist konzeptionell. Ranking-Optimierung fragt: „Wie komme ich höher in einer bekannten Liste?" Retrieval-Optimierung fragt: „Bin ich überhaupt in der Liste, aus der gerankt wird?" Das sind unterschiedliche Probleme mit unterschiedlichen Lösungen.
Rank-Tracking-Tools messen Positionen innerhalb des Sets. Sie sagen nichts darüber, ob eine Seite überhaupt für das Set qualifiziert war. In klassischer Suche war das weniger relevant, weil das Set schmal war. In KI-vermittelter Retrieval — und in einem geweiteten RankBrain-Fenster, wenn es kommt — ist diese Unterscheidung das gesamte Spiel.
Shift 2: Retrieval-Friendliness separat von Ranking-Friendliness auditieren
Ranking-Signale, die du bereits kennst: Topical Authority, Link-Equity, Query-Intent-Match. Retrieval-Systeme suchen etwas anderes:
Klare, in sich geschlossene, zitierfähige Aussagen — extrahierbar ohne das ganze Dokument lesen zu müssen
Hauptaussage in den ersten 100 Wörtern — nicht versteckt hinter Kontext-Setting und SEO-Preamble
Verknüpfung mit Entitäten oder Statistiken, die ein Retrieval-System verifizieren kann
Umgebende Evidenz, die selbst zitierwürdig ist
Eine Seite, die für Ranking geschrieben ist, vergräbt ihre Hauptaussage oft unter Kontext und Vorreden. Eine retrieval-fähige Seite stellt den Claim an den Anfang.
Shift 3: Top 20–30 als fixe Zielgröße aufgeben
Das Fenster ist eine Hardware-Beschränkung, die jahrelang hielt, weil sich niemand bei Google leisten konnte, sie zu weiten. Content gegen „was rankt in Positionen 1–10 für diese Query" zu briefen, heißt gegen einen Snapshot eines Fensters zu briefen, das schmaler ist, als es nötig wäre — aus reiner Hardware-Ökonomie.
Wenn sich die Ökonomie ändert, weitet sich das Fenster. Content, der gebaut wurde, um in einem schmalen Set zu konkurrieren, wird einer breiteren Konkurrenz gegenüberstehen, sobald sich das Set ausdehnt. Die Marge geht an Content, der stark genug war, von Beginn an in ein breiteres Kandidaten-Set einzutreten.
Wichtig zu verstehen
Keine dieser drei Verschiebungen erfordert eine Vorhersage, wann TurboQuant oder seine Nachfolger in Produktion gehen. Sie erfordern nur die Anerkennung, dass Retrieval-Ökonomie sich bewegt — und Positionierung für das, was auf der anderen Seite der Bewegung liegt, statt für den aktuellen Snapshot.
Retrieval-Eligibility messen: Der Server-Log-Test
Der schnellste konkrete Test, ob deine Seiten retrieval-eligible sind: Server-Log-Analyse. Zwei Klassen von Retrieval-User-Agents sind relevant.
Klasse 1: Such-Index-Crawler
Diese bauen den Korpus auf, aus dem KI-Systeme ziehen:
OAI-SearchBot — ChatGPT-Suche
Claude-SearchBot — Claude-Suche
PerplexityBot — Perplexity-Index
Applebot — füttert auch Apple Intelligence
Klasse 2: User-driven Agents
Diese ziehen Seiten on-demand, wenn jemand ein AI-Modell zu einem Thema fragt, das deine Seite abdeckt:
ChatGPT-User, Claude-User, Perplexity-User
Diese führen kein JavaScript aus — sie sind unsichtbar in GA4 und allen Analytics-Tools, die auf Client-Side-Tags basieren
Wenn deine relevanten Seiten in keiner der beiden Listen erscheinen, sind sie nicht in den Kandidaten-Sets, die diese Systeme bauen — und Ranking-Arbeit kann sie dort nicht hineinbringen
Der einfachste Audit-Schritt
Server-Logs der letzten 30 Tage ziehen. Die Retrieval-User-Agents zählen, die deine wichtigen Seiten erreicht haben. Wenn die Antwort null oder nahe null ist, wird keine Ranking-Arbeit der Welt diese Zahl bewegen. Die kompetitive Spielfläche verschiebt sich — und du bist nicht darauf.
Die YellowFrog-These: Das Ende der Top-10-SEO
Die SEO-Branche steht vor einer der größten konzeptionellen Verschiebungen seit der Einführung von RankBrain selbst. Unsere Einschätzung — basierend auf den Mustern, die wir bei Beratungs-Kunden seit Anfang 2025 sehen:
These
Bis Ende 2027 wird das Konzept „Top-10-SEO" als zentraler Strategie-Begriff verschwinden. An seine Stelle tritt eine zweistufige Logik: Retrieval-Eligibility (bin ich überhaupt im Kandidaten-Set?) und Reranking-Position (wo lande ich darin?). Beide brauchen unterschiedliche Strategien. Marken, die nur Reranking-Optimierung machen, verlieren in einer Welt, in der das Eligibility-Set auf 200 oder 500 Seiten gewachsen ist.
Drei Beobachtungen stützen das:
Google publiziert Forschung, die sie nutzen wollen. TurboQuant ist nicht zufällig veröffentlicht — Google macht selten Architektur-Forschung öffentlich, die nicht in Richtung Production geht. Das Timing zwischen Veröffentlichung (März 2026) und Pichais Memory-Constraint-Statement (April 2026) deutet auf einen ernsthaften Deployment-Pfad hin.
KI-Suche zieht das Spielfeld bereits in dieselbe Richtung. ChatGPT, Perplexity und Claude operieren ohne enge Top-10-Logik. Sie evaluieren breitere Kandidaten-Sets und zitieren Seiten, die in klassischer Google-Suche oft nicht in den Top 20 wären. Das ist der Vorbote.
Wettbewerbsfenster sind real und endlich. Sites, die jetzt auf Retrieval-Eligibility optimieren — klare Claims, Entity-Verknüpfungen, KI-Crawler-Sichtbarkeit — werden bei der Erweiterung des Fensters ein automatisches Visibility-Update erleben. Sites, die das verpassen, werden plötzlich in einer Liga konkurrieren, für die sie nie geschrieben wurden.
Was das praktisch bedeutet
SEO-Teams sollten ihre 2026-Roadmap so aufstellen, dass mindestens 30% der Ressourcen auf Retrieval-Vorbereitung statt klassischer Ranking-Optimierung fließen. Konkret: Server-Log-Analyse für KI-Crawler, Content-Audit auf Retrieval-Friendliness, Brand-Signal-Aufbau jenseits klassischer Backlinks. Wer das später angeht, kompensiert reaktiv — wer es jetzt angeht, positioniert sich vor der Fenster-Erweiterung.
FAQ: Häufige Fragen zur Spielfeld-Verschiebung
Was ist das 20–30-Fenster bei Google?
Google bewertet nur die obersten 20 bis 30 Kandidaten-Seiten pro Query mit seinem teuren Deep-Learning-Ranking-Layer (RankBrain). Davor läuft klassisches Postings-List-Retrieval, das den Korpus auf „Zehntausende" reduziert. Aus diesem Pool erreichen nur 20–30 Seiten den finalen Ranking-Layer. Bestätigt durch Pandu Nayak unter Eid im US-Gerichtsverfahren 2023.
Warum ist das 20–30-Fenster so klein?
Nicht aus algorithmischen Gründen, sondern aus Hardware-Kosten. Deep-Learning-Ranking ist memory-intensiv. Größere Kandidaten-Sets würden mehr Memory benötigen, als Google sich aktuell leisten kann. Pichai bestätigte April 2026, dass Memory einer der härtesten Supply-Bottlenecks ist und durch CapEx kurzfristig nicht lösbar.
Was ist TurboQuant?
TurboQuant ist ein Algorithmus von Google Research, Google DeepMind und der NYU, der Vektor-Repräsentationen um Faktor 4 bis 4,5 komprimiert — bei vergleichbarer Performance. Indexierungs-Zeit für Nearest-Neighbor-Search wird auf nahezu null reduziert. Wenn deployed, könnte er die Memory-Ökonomie hinter dem 20–30-Fenster grundlegend verändern.
Ist TurboQuant bereits in Google Search aktiv?
Nein, nicht bestätigt. Google hat den Algorithmus im März 2026 publiziert. Berichte beschreiben ihn als Lab-Breakthrough. Das März-2026-Core-Update enthielt keine öffentlichen Hinweise zu Retrieval-Effizienz oder Vektor-Quantisierung. Google nutzt seit Jahren quantisierte Vektor-Suche über ScaNN — TurboQuant erweitert diesen Ansatz.
Was ist Retrieval-Friendliness vs. Ranking-Friendliness?
Ranking-Friendliness optimiert für Topical Authority, Link-Equity und Query-Intent-Match. Retrieval-Friendliness optimiert dafür, dass eine Seite überhaupt im Kandidaten-Set erscheint: klare, in sich geschlossene Aussagen in den ersten 100 Wörtern, Entity-Verknüpfungen, zitierfähige Statistiken, umgebende Evidenz. Beide sind wichtig — werden aber unterschiedlich optimiert.
Wie messe ich Retrieval-Eligibility?
Über Server-Log-Analyse. Zwei Crawler-Klassen tracken: Such-Index-Crawler (OAI-SearchBot, Claude-SearchBot, PerplexityBot, Applebot) und User-driven Agents (ChatGPT-User, Claude-User, Perplexity-User). Letztere führen kein JavaScript aus und sind in GA4 unsichtbar. Wenn deine wichtigen Seiten in keiner der Listen erscheinen, sind sie nicht retrieval-eligible.
Müssen wir aufhören, auf Top-10 zu optimieren?
Nicht aufhören — aber nicht mehr ausschließlich. Top-10 bleibt wichtig, solange das schmale Fenster existiert. Aber Briefings sollten nicht mehr „nur was rankt in Positionen 1–10" als Wettbewerbsanalyse nehmen. Sobald das Fenster weiter wird, konkurriert Content mit einem deutlich größeren Set. Wer dann erst anfängt, breit zu denken, hat den Wechsel verpasst.
Wann erweitert Google das Fenster?
Es gibt keine offizielle Timeline. TurboQuant ist publiziert, aber nicht in Production confirmed. Realistisch: 12–18 Monate, falls die Memory-Constraints sich nicht verschärfen und der Algorithmus die Produktions-Reife erreicht. Wichtig: Die Vorbereitung hängt nicht von der genauen Timeline ab — Retrieval-Friendly Content gewinnt heute schon in KI-Suche, unabhängig vom Google-Deployment.
Was ist der konkrete erste Schritt?
Server-Logs der letzten 30 Tage ziehen, Retrieval-User-Agents zählen. Wenn die Zahl niedrig ist: Content-Audit auf Retrieval-Friendliness (klare Claims in ersten 100 Wörtern, Entity-Verknüpfungen, zitierfähige Datenpunkte). Das ist machbar in einem Sprint — und liefert sofort messbare KI-Sichtbarkeits-Effekte, unabhängig von Googles Timeline.
Conclusion
Die SEO-Branche operiert seit Jahren in einem Spielfeld, dessen Größe sie für gegeben hielt. Die Gerichtsaussagen aus dem US-vs.-Google-Verfahren und die Veröffentlichung von TurboQuant zeigen: Diese Größe war eine Hardware-Entscheidung, keine algorithmische. Und sie ist nicht stabil.
20–30 Seiten erreichen aktuell den RankBrain-Layer — nicht aus Design, sondern aus Kosten.
Memory ist der härteste Bottleneck — Pichai bestätigt, dass CapEx das kurzfristig nicht löst.
TurboQuant reduziert Vektor-Speicher um 4–4,5× und Indexing-Zeit auf nahezu null.
Wenn deployed, weitet sich das Kandidaten-Fenster — möglicherweise um ein Vielfaches.
Drei Vorbereitungen jetzt: Retrieval-Eligibility messen, Retrieval-Friendliness auditieren, Top-20–30-Fokus überdenken.
Server-Logs sind der Startpunkt — die schnellste Antwort, ob deine Seiten überhaupt im KI-Korpus sind.
Kernsatz
Wer Content gegen die heutigen Top-10 schreibt, optimiert für eine Welt, die sich gerade verändert. Wer Retrieval-Friendly Content baut — klare Claims, Entity-Verknüpfungen, zitierfähige Aussagen, KI-Crawler-Sichtbarkeit — gewinnt in der heutigen KI-Suche und positioniert sich gleichzeitig für die geweitete Google-Suche von morgen. Diese Vorbereitung ist nicht spekulativ. Sie ist messbar, machbar und überfällig.
Sofortiger Schritt: Server-Logs der letzten 30 Tage ziehen. Zählen: Wie oft hat OAI-SearchBot, Claude-SearchBot, PerplexityBot deine Top-20-Seiten erreicht? Wenn die Antwort null ist, ist das deine wichtigste Erkenntnis dieser Woche — und der Beginn deiner neuen Roadmap.
Rechtlicher Hinweis (Stand: Mai 2026): Allgemeine Information zu Retrieval-Architektur-Entwicklungen. TurboQuant und vergleichbare Techniken sind nicht als in Google Search deployed bestätigt. Keine Rechts- oder Strategieberatung im Einzelfall.
Retrieval-First-Strategie für deine Site
Wir analysieren deine Server-Logs auf KI-Crawler-Aktivität, auditieren deine Retrieval-Friendliness und positionieren deine Inhalte für das geweitete Kandidaten-Fenster — bevor der Wettbewerb es tut.