Google reduziert die sichtbaren SERP-Ergebnisse: Was wirklich passiert ist, warum Google das tut und wie du jetzt trotzdem vorne mitspielst

SEO Grafik


Kurzfassung für Eilige

Seit Mitte September 2025 zeigt Google pro Ergebnisseite wieder strikt 10 organische Resultate an und hat die in der Branche weit verbreitete Möglichkeit entfernt, per URL-Parameter bis zu 100 Ergebnisse auf einer Seite zu laden. Das betrifft vor allem Tracking, Reporting und die Datengrundlage vieler SEO-Tools. Es ist kein klassisches Ranking-Update im Sinne geänderter Relevanzsignale, sondern ein Darstellungs- und Abruf-Update mit großen Nebenwirkungen für deine Metriken. Wer seine Strategie auf echte Nutzer-Signale ausrichtet und Tool-Setups anpasst, kann daraus sogar Vorteile ziehen.


Was genau hat Google geändert

Über Jahre konntest du mit dem Parameter &num=100 bis zu 100 Suchergebnisse in einem Rutsch abrufen, viele Rank-Tracker und interne Skripte haben genau das genutzt. Im Zeitraum 12.–14. September 2025 hat Google diese Möglichkeit deaktiviert. Abfragen liefern nun wieder standardmäßig 10 Ergebnisse pro Seite, zusätzliche Resultate erreichst du nur paginiert. Das ist von Branchenmedien bestätigt und wurde von mehreren Anbietern analysiert.

Auch bereits 2024 hatte Google die Nutzer-Einstellung entfernt, mit der man im Profil dauerhaft 100 Ergebnisse pro Seite setzen konnte. Die aktuelle Änderung betrifft darüber hinaus die URL-Abfrage selbst und schneidet damit Tools und Skripte ab, die das Setting unabhängig vom Nutzer-Profil nutzten.

Praktische Folge: Viele Websites sehen seit Mitte September sprunghafte Veränderungen in Impressionen, durchschnittlicher Position und der Zahl der Keywords in Sichtbarkeitstabellen. Das liegt vor allem daran, dass Impressionen in Google Search Console nur dann gezählt werden, wenn ein Link auf der tatsächlich geladenen Ergebnisseite erscheint. Wenn Tools nicht mehr 100 Ergebnisse am Stück abrufen, entfallen zahllose „künstliche“ Impressionen aus den Positionen 11–100. Analysen zeigen, dass dadurch die ausgewiesene Keyword-Sichtbarkeit und Impressionen branchenweit zurückgingen.


Warum hat Google das gemacht

Es gibt keinen offiziellen Blogpost von Google, der genau diese Änderung als „Update“ etikettiert. Branchen-Publikationen berichten jedoch eindeutig über das Ende von &num=100 und bestätigen, dass Google den Parameter nicht mehr unterstützt. Mögliche Motive, die in gut informierten Analysen diskutiert werden:

  1. Nutzerorientierung und Konsistenz
    Google will die Ergebnisdarstellung vereinheitlichen und Daten so zählen, wie echte Nutzer sie sehen, also in Zehner-Schritten pro Seite oder via „Weitere Ergebnisse“. Das macht Metriken wie Impressionen vergleichbarer und reduziert Messartefakte, die durch Massentransporte von 100 Ergebnissen pro Abfrage entstehen.
  2. Kosten und Performance auf Google-Seite
    Eine Seite mit 100 Ergebnissen ist ressourcenintensiver als 10er-Pagination. Milliardenfach abgerufen, vor allem von Bots und Tracking-Tools, ist das teuer. Die Kürzung senkt Last und Missbrauchsflächen, ohne die Nutzererfahrung zu verschlechtern.
  3. Erschwerte Masse-Scrapes und AI-Training via SERP
    Ein 100er-Dump ist perfekt für großflächiges Scraping. Wenn nur noch 10 Ergebnisse pro Seite geladen werden, steigt der Aufwand für Fremd-Crawler und kommerzielle SERP-APIs. Mehrere Analysen verorten genau hier einen Grund, weil großvolumige SERP-Daten das Training externer Assistenten erleichtern.
  4. Klarere Messung echter Sichtbarkeit
    Wenn Impressionen nur noch dort gezählt werden, wo Nutzer wirklich hinschauen, verbessert das die Aussagekraft von Metriken wie „Durchschnittliche Position“ oder „Sichtbarkeit“. Einige Studien beziffern den Effekt auf Impressionen und Keyword-Coverage mit deutlichen Rückgängen, was die These stützt, dass vor allem Bot-getriebene Impressionen verschwinden.

Wichtig: Das ist kein Core- oder Spam-Update mit neuen Ranking-Signalen. Deine tatsächlichen Rankings müssen sich nicht verschlechtern, auch wenn es so aussieht, weil sich die Instrumente geändert haben, mit denen du misst.


Die großen Auswirkungen auf Unternehmen

1) Reporting, das plötzlich „schlechter“ aussieht

  • Sturz der Impressionen: Besonders bei Desktop-Suchen, weil Seiten jenseits der ersten Ergebnisseite seltener echte Impressionen sammeln. Analysen berichten von deutlichen Rückgängen bei Impressionen und Keyword-Anzahl in den Sichtbarkeitssets.
  • Verschobene Durchschnittsposition: Wenn die Position 87 nicht mehr als Impression gezählt wird, rutscht der Durchschnitt näher an die echten Sichtbereiche. Das kann sogar besser aussehen, obwohl die Zugriffe konstant bleiben.
  • Langsamere oder teurere Rank-Abfragen: Tools müssen mehr Seiten paginieren, damit steigen Kosten und Latenzen. Einige Anbieter warnen vor höheren Tracking-Kosten und weniger frischen Daten in großen Keyword-Sets.

2) Auswirkungen auf Tooling, Workflows und Budgets

  • Rank-Tracker und SERP-APIs passen Abfrage-Routinen an, was Limitierungen, Wartezeiten oder höhere Pakete nach sich ziehen kann.
  • Interne Skripte zum SERP-Scraping, die auf &num=100 bauten, brechen oder liefern verzerrte Daten.
  • Dashboards zeigen Brüche ab Mitte September 2025. Wer die Änderung nicht kommentiert, riskiert Fehlinterpretationen in Management-Runden.

3) Konsequenzen für Content- und Wettbewerbsanalysen

  • Long-Tail-Analysen mit breiten Keyword-Körben werden aufwendiger, weil man tiefer „durchblättern“ muss.
  • SERP-Features-Monitoring bleibt möglich, erfordert aber robustere Pagination und Labeling je Seite.
  • AI-gestützte Wettbewerbsbeobachtung über SERP-Dumps verliert an Effizienz, was kleineren Teams indirekt nützen kann, die stärker auf manuelle Qualität setzen.

Vorteile und Chancen, wenn man es richtig angeht


2.png
  1. Sauberere KPIs
    Weniger Messrauschen durch Bot-Impressionen jenseits von Seite 1. Deine Zahlen spiegeln eher das reale Nutzerverhalten wider.
  2. Fokus auf wirksame Keywords
    Teams priorisieren Top-Of-Page-Chancen, statt hunderte Terme im Niemandsland der Seiten 3–10 zu verfolgen. Das steigert Output pro investierter Stunde.
  3. Besserer Stakeholder-Dialog
    Wer die Metrik-Änderung erklärt, baut Vertrauen auf. Du zeigst, dass du Ursachen und Wirkungen auseinanderhalten kannst.
  4. Wettbewerbsvorteil durch schnelle Anpassung
    Während andere noch ihre Dashboards reparieren, nutzt du die Zeit für inhaltliche Hebel, die echte Nutzer erreichen.

Nachteile und Risiken, wenn du nichts änderst

  • Fehlinterpretationen: Management nimmt Impression-Drops als Performance-Einbruch wahr, Budgets werden vorschnell gekürzt.
  • Blindflug im Long-Tail: Ohne angepasstes Tracking entgehen dir Bewegung und Chancen jenseits der Top 10.
  • Kostenexplosion im Tooling: Ungeplante API-Calls, höhere Limits, unoptimierte Crawl-Pläne drücken die Marge.
  • Langsamere Analysen: Wenn du große Keyword-Sets beibehalten willst, verlängern sich Laufzeiten und Aktualisierungsintervalle.

So bereitest du dich taktisch und strategisch richtig auf

1) Brüche in Daten und Dashboards sauber dokumentieren

  • Lege in allen Looker-, Data Studio-, Tableau- und Power BI-Berichten eine sichtbare „Methoden-Notiz“ mit Datum 12.–14. September 2025 an, die die Änderung erklärt.
  • Ergänze Zeitreihen um eine vertikale Markierung und kommentiere: „Google entfernt &num=100. Werte vor und nach diesem Datum sind nur eingeschränkt vergleichbar.“
  • Erkläre Stakeholdern, dass Klicks, Conversion und Umsatz die Leitsterne bleiben, während Impressionen und Keyword-Count methodisch bedingt schwanken.

2) Tracking-Setups modernisieren

  • Rank-Tracker prüfen: Wie viele Seiten paginiert das Tool, wie oft, und welche Limits greifen bei großen Keyword-Körben. Plane Budget und Frequenz entsprechend.
  • Sampling statt Vollerhebung: Für riesige Keyword-Listen lohnt sich ein repräsentatives Sampling, das du täglich ziehst, plus wöchentliche Deep-Dives.
  • Positions-Buckets neu definieren: Tracke „Top 3“, „Top 10“, „11–20“, „21–50“, „51–100“ getrennt, statt nur Durchschnittswerte zu betrachten.
  • SERP-Feature-Labels je Seite speichern, damit du Veränderungen in „People also ask“, Sitelinks, FAQs, Shopping-Modulen etc. korrekt historisieren kannst.

3) Content-Strategie auf echte Suchintention und SERP-Realität ausrichten

  • Themen-Cluster bilden: Ein starker Hub-Artikel, flankiert von präzisen Subpages für konkrete Use-Cases, verwandelt breite Keywords in planbare Long-Tail-Reichweite.
  • Information Gain erhöhen: Was lieferst du zusätzlich, was die Top-Ergebnisse nicht haben. Originaldaten, Checklisten, Rechner, interaktive Tools, lokale Beispiele.
  • E-E-A-T sichtbar machen: Autorenseiten, klare Verantwortliche, Quellenangaben, transparente Aktualisierungen mit Datum, nachvollziehbare Methodik.
  • SERP-Design lesen: Baue Inhalte so, dass sie Featured Snippets, People also ask, Videos oder Bilder plausibel besetzen. Format und Struktur entscheiden, nicht nur der Text.

4) Technische Hebel nutzen, die wirklich Reichweite bringen

  • Page Experience groß denken: Schnelle TTFB, stabile Core Web Vitals, kein störendes Layout, klare Interaktion.
  • Schema.org gezielt einsetzen: Nicht alles auszeichnen, was geht, sondern genau das, was deinem Snippet Klarheit und Klickreiz gibt.
  • Interne Verlinkung priorisieren: Navigations- und Kontextlinks, die Suchintention spiegeln, heben ganze Cluster, nicht nur einzelne URLs.
  • Indexierung steuern: Große Sites brauchen klare Crawl-Budgets und eine schmale, aktuelle XML-Sitemap. Reduziere Thin Content und Near-Duplicates.

5) Lokale und transaktionale Suchen separat optimieren

  • Local Pack gewinnen: Vollständige Google-Profile, echte Fotos, präzise Kategorien, lokale Landingpages mit NAP-Konsistenz, strukturierte Daten für LocalBusiness.
  • Produkt- und Kategorie-Seiten schärfen: Einzigartige Beschreibungen, klare Vergleichstabellen, Trust-Elemente und FAQ-Abschnitte, die konkrete Einwände lösen.
  • Rezensionen als Content-Signal: Echte, aktuelle Bewertungen sind Nutzersignal und Conversion-Hebel zugleich.

6) Erfolg messen wie ein Produktteam

  • North-Star-Metriken definieren: SEO-getriebene Umsätze, qualifizierte Leads, wiederkehrende Nutzer.
  • Content-KPIs trennen: Sichtbarkeit und Reichweite einerseits, Engagement und Conversion andererseits.
  • Attributionslogik erklären: Top-of-Funnel-Inhalte zahlen oft zeitversetzt ein. Baue kohortenbasierte Auswertungen.

Konkrete Maßnahmenliste für die nächsten 30 Tage

  1. Stakeholder-Briefing aufsetzen
    Ein kompakter Einseiter zum „Was“ und „Warum“ der Änderung, mit Datum, Effekten auf Impressionen und was das nicht bedeutet. Lege ihn jedem KPI-Report bei.
  2. Dashboards mit „Bruchmarke“ versehen
    Markiere den Zeitraum 12.–14.09.2025 und setze davor/danach Hinweise zu eingeschränkter Vergleichbarkeit.
  3. Keyword-Portfolio ausmisten
    Entferne Karteileichen jenseits von Position 50 aus dem Tages-Tracking, verschiebe sie in ein wöchentliches oder zweiwöchiges Sample.
  4. SERP-Analysen auf Pagination umstellen
    Stelle sicher, dass dein Tool Seiten 2–10 sauber abholt, wenn du für Research tiefer schauen willst, und beobachte API-Limits.
  5. Zwei Content-Upgrades liefern
    Wähle zwei Seiten mit hohem Potenzial für Snippets oder PAA, ergänze präzise, bündige Antworten im Q-A-Format und ein Mini-Schema dafür.
  6. Interne Verlinkung auditieren
    Drei Klicks bis zum Geld-Content, thematische Häufung im Cluster, klare Brotkrumen. Fixe die Top 10 Link-Lücken.
  7. Local-Signals prüfen
    Öffnungszeiten, Kategorien, Fotos, lokale Headlines, NAP-Konsistenz. Aktualisiere alles, was veraltet ist.
  8. Conversion-UX optimieren
    Trust-Badges, Versandinfos, Rückgaberegeln, Live-Chat. Kleine Reibungen kosten gerade auf mobilen SERPs echte Umsätze.

Wie du das intern kommunizierst

Formuliere klar:

  • „Unser Traffic hängt nicht an Impressionen aus Positionen, die Nutzer nie sehen, sondern an Klicks in Sichtbereichen.“
  • „Die durchschnittliche Position kann steigen, obwohl die Impressionen fallen, weil die Messung realistischer wird.“
  • „Wir nutzen die Veränderung, um unser Portfolio auf echte Chancen zu konzentrieren und die Conversion-Kette zu stärken.“

Liefere Beispiele aus deinen Daten, etwa ein Keyword, das konstant gleich viele Klicks bringt, obwohl die Impressionen gefallen sind. So wird die Logik greifbar.


Antworten auf die häufigsten Rückfragen

Ist das ein klassisches Algorithmus-Update?
Nein. Es geht um Darstellung und Abrufbarkeit der Ergebnisse, nicht um geänderte Ranking-Signale. Deine Rankings können unverändert sein, obwohl sich sichtbare KPIs verschieben.

Warum fallen unsere Impressionen so stark?
Weil nicht mehr 100 Ergebnisse am Stück geladen werden, was „Impressionen“ auf tieferen Positionen verhindert. Echte Nutzer haben diese Positionen selten gesehen, nun verschwinden die Messartefakte.

Werden Rank-Tracker unbrauchbar?
Nein, aber sie müssen mehr paginieren und häufiger abfragen. Das kann teurer und langsamer werden, die Datenqualität bleibt mit sauberer Anpassung hoch.

Was bedeutet das für AI-gestützte Recherche und Wettbewerbsbeobachtung?
Großflächige SERP-Dumps werden teurer. Wer auf Qualität, eigene Daten und zielgenaue Analysen setzt, gewinnt.


Best Practices, die jetzt doppelt zählen

  1. Suchintention zuerst
    Jeder Abschnitt einer Seite muss eine konkrete Frage besser beantworten als die Konkurrenz. Baue klare Absätze und präzise Zwischenüberschriften, damit Google und Nutzer Antworten sofort finden.
  2. Kurz, klar, klickstark im Snippet
    Meta-Title mit Nutzenversprechen, Description mit konkretem Vorteil und Call-to-Action. Vermeide Floskeln. Teste Varianten, die CTR erhöhen.
  3. Daten und Originalität
    Eigene Zahlen, Benchmarks, Studien und echte Beispiele schlagen austauschbare Texte. Das erhöht die Chance auf Erwähnungen und Links.
  4. Temporale Frische belegen
    Sichtbar aktualisierte Inhalte mit Datum, changelog-ähnliche Notizen, aktualisierte Screenshots. Suchende vertrauen frischen Antworten.
  5. Technische Sauberkeit
    Schnelle Serverantworten, saubere Canonicals, klare Hreflang-Beziehungen, schlanke Sitemaps.
  6. Interne Links als Ranking-Hebel
    Platziere kontextuelle Links von starken zu wachstumsfähigen Seiten, mit Ankertexten, die Suchintention transportieren.
  7. SERP-Feature-First denken
    Antworte in 40–60 Wörtern präzise auf Kernfragen, liste Schritte und Definitionen strukturiert, nutze Tabellen und Mini-FAQs, wenn es der Suchintention entspricht.

Ein Wort zur „Gerechtigkeit“ der SERPs

Ob große Marken bevorzugt werden oder nicht, ist eine alte Debatte. Entscheidend ist: Google betont seit Jahren, dass Relevanz für die Nutzeranfrage und Qualität der Inhalte zählen. Wer echte Informationslücken schließt, klare Expertise zeigt und ein hervorragendes Nutzererlebnis bietet, kann sich auch gegen starke Domains platzieren. Die aktuelle Änderung ändert daran nichts, sie ändert die Messung dessen, was Nutzer wirklich zu Gesicht bekommen.


Fazit

3.png

Google hat die Sicht auf Suchergebnisse enger gemacht, nicht zwingend die Sichtbarkeit deiner Marke. Wenn du Impressionen und Keyword-Counts plötzlich anders liest, ohne die Geschichte dahinter zu erzählen, wirkt es wie ein Einbruch. Mit der richtigen Einordnung und ein paar gezielten Anpassungen verwandelst du die Änderung in Klarheit: saubere KPIs, fokussierte Arbeit an Chancen in Reichweite und Inhalte, die tatsächlich überzeugen.

Kurz gesagt: Weniger Rauschen, mehr Wirkung.

Continue Reading

Discover more insights and related topics

2 from SEO
1 surprise pick
Surprise

Diskussion

Nimm an der Diskussion über "Google reduziert die sichtbaren SERP-Ergebnisse: Was wirklich passiert ist, warum Google das tut und wie du jetzt trotzdem vorne mitspielst" teil

0 Kommentare

Diskussion beitreten

Deine E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind mit * markiert

Beginne eine Konversation!

Teile deine Gedanken zu diesem Beitrag.