Die Google Search Console ist das meistgenutzte und gleichzeitig am meisten unterschätzte SEO-Werkzeug, das es gibt. Fast jede Website, die wir bei JSH zum ersten Mal analysieren, hat eine GSC-Property — oft seit Jahren. Und fast jedes Mal stellen wir fest: Sie wird geöffnet, um die Klickzahlen zu prüfen, und dann wieder geschlossen.
Das ist, als würdest du zum Arzt gehen, dir Blut abnehmen lassen und dann das Ergebnis ungelesen in der Schublade verschwinden lassen.
Die GSC ist kein Dashboard, das du einmal anschaust. Sie ist Googles direkte Kommunikation mit dir: Was Google von deiner Website sieht, was es crawlt, was es indexiert, was es ausspielt — und was nicht. Wer das richtig lesen kann, hat einen Informationsvorsprung gegenüber jedem, der sich nur auf Drittanbieter-Tools verlässt. Denn Sistrix, Ahrefs, SE Ranking — sie alle schätzen. Die GSC misst.
200+
5,0
zufriedene Kunden





In diesem Artikel zeige ich dir, wie wir die Google Search Console bei JSH Marketing tatsächlich einsetzen: nicht als Reporting-Kosmetik, sondern als Diagnosewerkzeug. Für Bing und Microsoft Webmaster Tools — den wichtig gewordenen Zwilling für Copilot und KI-Suche — machen wir einen separaten Artikel, weil das Thema eigene Tiefe verdient.
Inhalt dieser Seite
Was die Google Search Console wirklich ist — und was sie nicht ist
Die GSC ist ein kostenloser Dienst von Google, der Website-Betreibern direkten Einblick in die organische Sichtbarkeit ihrer Seite in der Google-Suche gibt. Echte Klicks, echte Impressionen, echte Rankingpositionen, echte technische Fehler — keine Modelle, keine Hochrechnungen.
Das klingt selbstverständlich. Ist es aber nicht, sobald man es mit dem vergleicht, was Drittanbieter-Tools leisten.
Sistrix zeigt dir einen Sichtbarkeitsindex — eine Schätzung auf Basis gecrawlter SERPs, gewichtet nach Suchvolumen und Klickwahrscheinlichkeit. SE Ranking schätzt Rankingpositionen auf Basis eigener Crawler. Ahrefs schätzt Traffic auf Basis von Keyword-Volumen und Klickraten-Modellen. Alle drei machen das gut, und alle drei sind unverzichtbar für Wettbewerbsanalysen, Keyword-Recherche und historische Vergleiche.
Aber keines dieser Tools hat Zugang zu dem, was Google tatsächlich misst. Das hat nur die GSC.
Kriterium
Google Search Console
SEO-Tools (SE Ranking, Sistrix …)
Datenquelle
Google selbst – Rohdaten
Geschätzte Daten (Crawler)
Klickdaten
Exakte Klicks & CTR
Keine echten Klicks
Indexierungsstatus
Direkt einsehbar
Nicht verfügbar
Technische Fehler
Crawl + CWV direkt
Teilweise
Wettbewerb-Analyse
Kein Wettbewerber-Blick
Vollständig
Kosten
Kostenlos
Ab ca. 150 €/Monat
Deswegen ist bei uns die Regel klar: Jede SEO-Entscheidung beginnt mit einem Blick in die GSC. Nicht in Sistrix, nicht in SE Ranking — in die GSC. Was dort steht, ist Primärdaten. Alles andere ist Interpretation dieser Primärdaten durch ein Modell eines Drittanbieters. Wer wissen will, was echter Sichtbarkeit entspricht und was Schätzung ist, findet die Antwort in unserem Artikel zum Sichtbarkeitsindex.
Ein praktischer Hinweis zum Einstieg: Die GSC arbeitet mit Properties. Du kannst eine Domain-Property anlegen (deckt alle Subdomains und Protokolle ab) oder eine URL-Prefix-Property (deckt nur eine bestimmte URL-Basis ab). Für die meisten Fälle ist die Domain-Property die richtigere Wahl — sie zeigt das Gesamtbild. Die Verifikation läuft über DNS-Eintrag, HTML-Tag, Google Analytics oder Google Tag Manager.
Die Performance-Ansicht professionell lesen
Der Performance-Bericht ist das Herzstück der GSC. Er zeigt Klicks, Impressionen, durchschnittliche CTR und durchschnittliche Position für deine Website in der Google-Suche. Die meisten öffnen ihn, schauen auf die Gesamtkurve, nicken und schließen das Tab wieder.
Das ist ungefähr so hilfreich wie ein Blutbild anzuschauen und nur zu prüfen, ob die Seite vollständig ausgedruckt ist.
Was die vier Metriken tatsächlich bedeuten
Klicks sind die einzige dieser vier Metriken, die direkt auf dein Geschäft einzahlt — echte Menschen, die von Google auf deine Website gekommen sind. Impressionen sagen dir, wie oft deine Seite in den Suchergebnissen erschienen ist, ohne dass jemand draufgeklickt hat. Die CTR ist das Verhältnis zwischen beiden — sie misst, wie gut du mit deinem Snippet überzeugst. Und die durchschnittliche Position ist ein gewichteter Mittelwert aller Rankingpositionen einer URL oder eines Keywords.
Letztere ist gefährlich, wenn man sie falsch liest. Eine durchschnittliche Position von 8,4 für eine Seite kann bedeuten, dass die Seite konstant auf Position 8–9 liegt. Sie kann aber auch bedeuten, dass die Seite für einen Teil der Suchanfragen auf Position 2 rankt und für einen anderen Teil auf Position 40 — und der Durchschnitt ergibt zufällig 8,4. Das ist ein fundamental anderer Befund, der fundamental andere Maßnahmen erfordert.
Die sechs Filterdimensionen — und wie wir sie ausreizen
Der Performance-Bericht lässt sich nach sechs Dimensionen filtern: Suchanfragen (Query), Seiten (Page), Land, Gerät, Suchtyp (Search Appearance) und Datum. Wer nur die Gesamtansicht liest, lässt 90 Prozent der Information auf dem Tisch liegen.
In der Agenturpraxis nutzen wir regelmäßig folgende Filter-Kombinationen:
- Brand-Queries ausschließen: Im Query-Filter “Enthält nicht” + Markenname. Das zeigt die echte organische Performance ohne den Marken-Traffic-Rückenwind. Für Kunden, die starke Brand-Queries haben, ist das oft ernüchternd — und notwendig, um den tatsächlichen SEO-Fortschritt zu messen.
- Blog-Pfad + Mobile + Deutschland + Periodenvergleich: Page-Filter auf “/blog/”, Gerät auf “Mobiltelefon”, Land auf “Deutschland”, Datumsbereich “Vergleich 28 Tage vs. vorherige Periode”. Dieser Filter zeigt auf einen Blick, wie sich der mobile organische Traffic aus Deutschland auf Blogseiten im Monatsvergleich entwickelt — besonders nützlich nach Content-Updates.
- High-Impression / Low-CTR-Seiten identifizieren: Keine Filterung, aber Sortierung nach Impressionen absteigend — dann nach CTR aufsteigend. Seiten mit vielen Impressionen und niedriger CTR sind die klassischen Low-hanging-fruit-Kandidaten für Snippet-Optimierung. Oft reicht ein besserer Title Tag oder eine präzisere Meta-Beschreibung, um die CTR messbar zu steigern.
- Queries, für die eine Seite unintendiert rankt: Page-Filter auf eine spezifische URL, dann Query-Liste ansehen. Hier tauchen oft Keywords auf, für die die Seite rankt, aber nie optimiert wurde — manchmal Chancen, manchmal Kannibalisierungshinweise.
Zeitvergleiche richtig nutzen
Der GSC-Standardzeitraum sind 28 Tage. Für die meisten Fragen ist das sinnvoll. Für saisonale Themen brauchst du den Jahresvergleich — GSC zeigt bis zu 16 Monate Datenhistorie, was einen direkten Vorjahresvergleich ermöglicht.
Wichtig: Wenn du einen Vergleich ziehst, achte auf Datumsgrenzen. Google-Updates, saisonale Effekte und eigene Content-Deployments müssen bekannt sein, um Veränderungen korrekt einzuordnen. Ein Klick-Einbruch im Vergleich zum Vormonat kann ein Problem sein — oder schlicht der Kalendereffekt, wenn einer der 28 Tage ein Feiertag war.
Regex-Filter: wann sie sich lohnen
Seit einigen Jahren unterstützt die GSC reguläre Ausdrücke im Query- und Page-Filter. Das ist kein Feature für den täglichen Einsatz, aber in bestimmten Audit-Situationen äußerst wertvoll.
Beispiel: Du willst alle URLs prüfen, die einem Muster entsprechen — etwa /produkt/[kategorie]/[id]/. Mit dem Regex-Filter ^/produkt/[a-z-]+/[0-9]+/$ kannst du genau diese URL-Gruppe isolieren, ohne jede URL einzeln zu suchen. Oder du willst Queries analysieren, die mit einem Fragewort beginnen: ^(was|wie|wann|warum|wo) — das zeigt deinen gesamten informationalen Traffic mit einem Filter.
URL-Inspektion und Indexierungsstatus
Das URL-Inspection-Tool ist das präziseste Diagnose-Instrument der GSC. Du gibst eine einzelne URL ein und bekommst den aktuellen Stand aus Googles Perspektive: Ist die Seite indexiert? Wann wurde sie zuletzt gecrawlt? Wie rendert Google den HTML-Quellcode? Gibt es Canonical-Konflikte?
Die wichtigste Unterscheidung, die viele missverstehen: gecacht ist nicht gleich indexiert, und indexiert ist nicht gleich rankend.
Eine URL kann gecacht sein, aber nicht indexiert werden. Sie kann indexiert sein, aber für keine relevanten Queries ranken. Und sie kann für Queries ranken, ohne dass du das für diese URL so geplant hattest. Das URL-Inspection-Tool zeigt dir den ersten Teil dieser Kette.
Live-Test vs. gecachte Version
Das Tool bietet zwei Modi. Der gecachte Status zeigt, was Google bei seinem letzten Crawl gesehen hat — mit Datum. Der Live-Test lädt die Seite in Echtzeit, rendert sie wie Googlebot und zeigt das Ergebnis sofort. Unterscheiden sich beide voneinander, ist das ein Hinweis auf Caching-Probleme oder auf Inhalte, die sich seit dem letzten Crawl verändert haben.
Nach einem Content-Update oder einer technischen Änderung ist es sinnvoll, zuerst den Live-Test auszuführen und dann “Indexierung anfordern” zu klicken. Das beschleunigt den Re-Crawl — keine Garantie, aber in der Praxis oft wirksam.
Die Render-Vorschau — wann JavaScript zum Problem wird
Das Tool zeigt auch, wie die gerenderte Version der Seite aussieht — also nach JavaScript-Ausführung. Das ist kritisch für Seiten, deren Inhalt per JavaScript geladen wird. Wenn der gerenderte HTML deutlich weniger Inhalt zeigt als der ursprüngliche Quellcode, hat Googlebot beim Crawl nicht den vollständigen Seiteninhalt gesehen.
Wir haben das in Audits immer wieder: Produktbeschreibungen, die per React gerendert werden, sind für Google nicht sichtbar. Filtermechanismen, die URLs per JavaScript aufbauen, erzeugen Tausende URLs, die Google nicht sauber crawlen kann. Die Render-Vorschau im Inspection-Tool ist oft der erste Schritt bei der Diagnose solcher Probleme. Wer eine WordPress-Website betreibt, findet weitere Hinweise zu technischer Crawlbarkeit in unserem Artikel zur WordPress-SEO.
Der Coverage-Report: Indexierung im Überblick
Während das Inspection-Tool einzelne URLs prüft, zeigt der Coverage-Report (in der GSC “Seitenindexierung” genannt) das Gesamtbild: Wie viele URLs sind indexiert? Welche sind ausgeschlossen — und aus welchem Grund?
Die Ausschluss-Kategorien sind dabei oft aufschlussreicher als die indexierten Seiten. Die häufigsten, die wir sehen:
„Gefunden – derzeit nicht indexiert” (Discovered, not crawled): Google weiß von der Seite, hat sie aber noch nicht gecrawlt. Das ist kein Fehler — es bedeutet, dass die Seite im Crawl-Backlog wartet. Bei großen Websites mit begrenztem Crawl-Budget ist das ein Signal, Prioritäten zu setzen: Welche URLs brauchen wirklich Sichtbarkeit? Weniger wichtige Seiten via robots.txt oder noindex aus dem Crawl-Fokus nehmen, damit Google sein Budget auf die relevanten Seiten konzentriert.
„Gecrawlt – derzeit nicht indexiert” (Crawled, not indexed): Das ist die wichtigste und gleichzeitig meistmissverstandene Kategorie. Google hat die Seite gecrawlt, entscheidet aber, sie nicht in den Index aufzunehmen. Das liegt fast nie an einem technischen Fehler. Es liegt daran, dass Google den Inhalt als nicht indexierungswürdig einschätzt — zu dünn, zu ähnlich zu anderen Seiten, zu wenig eigenständiger Mehrwert.
Diagnose vor Therapie: Wenn wir bei einem Client “Gecrawlt – nicht indexiert” für Hunderte von URLs sehen, beginnen wir nie mit technischen Maßnahmen. Wir lesen zuerst die betroffenen Seiten. Die Antwort ist fast immer inhaltlich.
Fehlerberichte richtig deuten
Die GSC meldet Probleme in mehreren Berichtsbereichen. Welche davon wirklich kritisch sind, welche man kennen aber ignorieren kann und welche als Symptom für ein tieferliegendes Problem zu lesen sind — das ist der Unterschied zwischen reaktivem Feuerauslöschen und strategischer Fehlerdiagnose.
Soft 404 — das missverstandene Signal
Eine Soft 404 ist eine Seite, die HTTP-Status 200 zurückgibt (also technisch “OK” sagt), deren Inhalt Google aber als nicht existent oder bedeutungslos bewertet. Typische Fälle: leere Kategorieseiten im E-Commerce, Suchergebnisseiten ohne Treffer, oder Seiten, die nach einer Umstrukturierung noch erreichbar sind, aber keinen Inhalt mehr haben.
Der verbreitete Reflex ist, Soft 404s als technisches Problem zu behandeln. Das ist falsch. Soft 404 ist ein Inhaltssignal: Google sagt dir, dass diese Seite aus seiner Perspektive keinen Inhalt hat, der eine Indexierung rechtfertigt. Die Lösung ist inhaltlich — Seite mit echtem Mehrwert füllen, oder, wenn das nicht möglich ist, einen echten 404 oder 301-Redirect einrichten.
Duplizierter Inhalt ohne Canonical
Wenn Google mehrere URLs mit identischem oder sehr ähnlichem Inhalt findet und keine kanonische Version ausgezeichnet ist, wählt Google eine Canonical-URL nach eigenem Ermessen. Meistens trifft es die richtige Entscheidung — aber eben nicht immer. Und wenn Google die falsche URL als kanonisch wählt, fließt der gesamte Ranking-Wert auf eine URL, die du vielleicht gar nicht in der Suche sehen willst. Regelmäßig prüfen, ob Googles gewählte Canonical mit deiner intendierten übereinstimmt, ist eine einfache aber wichtige Routinekontrolle.
Schema Markup in der GSC prüfen
Unter “Verbesserungen” zeigt die GSC für jeden implementierten Schema-Typ einen eigenen Bericht: gültige Elemente, Warnungen, Fehler — aufgeschlüsselt nach URL. Das ist die einzige verlässliche Prüfung dafür, ob Google das strukturierte Markup tatsächlich versteht und als valide akzeptiert.
Die häufigsten Fehlertypen in der Praxis: Pflichtfelder fehlen (beim Review-Schema etwa ratingValue oder author), falsche Datentypen (eine Zahl als String übergeben — "4.9" statt 4.9), oder Markup-Inhalte, die nicht mit dem sichtbaren Seiteninhalt übereinstimmen. Letzteres ist besonders heikel: Google bestraft Schema, das Nutzer täuscht. Wer Sternebewertungen im Markup angibt, die auf der Seite nicht sichtbar sind, riskiert manuelle Maßnahmen.
Der externe Rich-Results-Test unter search.google.com/test/rich-results ist ein sinnvolles Ergänzungswerkzeug, um Schema vor dem Go-Live zu prüfen. Die GSC zeigt dir die Fehler im Bestand — der Rich-Results-Test hilft dir, sie zu vermeiden, bevor sie entstehen.
Manual Actions und Security Issues
Diese beiden Bereiche sollten nach jedem Relaunch und einmal im Monat routinemäßig geprüft werden — nicht weil Probleme häufig sind, sondern weil sie, wenn sie auftreten, erheblichen Schaden anrichten, bevor man sie bemerkt.
Eine manuelle Maßnahme bedeutet, dass ein Google-Mitarbeiter deine Website überprüft und ein Problem festgestellt hat — in der Regel Spam-Muster, manipulative Links oder gefährliche Inhalte. Die Auswirkungen auf das Ranking sind unmittelbar und oft drastisch. Security Issues melden dagegen automatisch erkannte Probleme: Malware, gehackte Inhalte, Social Engineering.
Beide erscheinen im linken Menü der GSC und sind leer, wenn alles in Ordnung ist. Ein Blick dauert fünf Sekunden und kann dir ersparen, wochenlang nach einem Ranking-Einbruch zu suchen, dessen Ursache mit einem Klick sichtbar gewesen wäre.
Sitemaps, Links und die unterschätzten Nebenfunktionen
Eine XML-Sitemap einreichen ist einer der wenigen Bereiche der GSC, wo du aktiv Einfluss auf Googles Crawling-Verhalten nimmst. Du teilst Google damit mit: Diese URLs existieren, sie sind relevant, bitte crawl sie.
Der Sitemaps-Bericht in der GSC zeigt dir nach dem Einreichen, wie viele der enthaltenen URLs entdeckt wurden — und wie viele davon tatsächlich indexiert sind. Das Delta zwischen diesen beiden Zahlen ist informativ. Wenn du 800 URLs in der Sitemap hast, Google davon aber nur 320 indexiert, lohnt es sich, die nicht-indexierten URLs zu analysieren. Häufige Ursachen: dünner Inhalt, Duplikate, oder Seiten, die eigentlich gar keine Indexierung brauchen.
Eine saubere Sitemap enthält nur URLs, die du tatsächlich indexiert haben willst — keine noindex-Seiten, keine Weiterleitungen, keine dünn bespielten Kategorieseiten. Wer eine aufgeräumte Sitemap hat, gibt Google ein klares Signal. Mehr dazu im Artikel zu XML-Sitemap und robots.txt.
Die GSC zeigt interne und externe Links — und das ist nützlicher, als die meisten denken. Der externe Links-Bericht listet deine Top-Verweisdomains und die am häufigsten verlinkten Seiten. Das ist Googles direkte Aussage darüber, welche Links Google tatsächlich kennt und berücksichtigt — kein Drittanbieter-Modell, sondern Primärdaten.
Besonders hilfreich: der interne Links-Bericht. Er zeigt, welche deiner Seiten die meisten internen Verweise erhalten. Das ist ein direktes Abbild deiner internen Linkstruktur aus Googles Perspektive. Wenn wichtige Landingpages kaum interne Links bekommen und weniger wichtige Seiten viele — das ist ein Optimierungshinweis, für den du kein Drittanbieter-Tool brauchst.
Unter “Einstellungen” bietet die GSC einen einfachen robots.txt-Tester: URL eingeben, prüfen ob Googlebot sie crawlen darf. Klingt trivial, ist aber wertvoll nach Konfigurationsänderungen. Eine falsch gesetzte Disallow-Regel in der robots.txt kann im schlimmsten Fall die gesamte Website vom Crawl ausschließen — und das passiert in der Praxis häufiger als man denkt, meistens versehentlich bei Staging-to-Production-Deployments.
Core Web Vitals in der GSC
Seit 2021 sind Core Web Vitals offizieller Ranking-Faktor. In der GSC findest du sie unter “Erfahrung” → “Core Web Vitals” — getrennt für Mobilgeräte und Desktop.
Die drei Metriken, die 2026 zählen
LCP (Largest Contentful Paint) misst, wie lange es dauert, bis das größte sichtbare Element einer Seite geladen ist. Gut: unter 2,5 Sekunden. Hauptursachen für schlechte Werte: langsame Server-Antwortzeiten, nicht optimierte Hero-Bilder, render-blockierendes CSS oder JavaScript.
INP (Interaction to Next Paint) hat seit März 2024 FID ersetzt und misst die Reaktionszeit der Seite auf alle Nutzereingaben — Klicks, Tippen, Tastaturinteraktionen. Gut: unter 200 Millisekunden. Hauptursachen: schweres JavaScript, zu viele Long Tasks im Main Thread, Drittanbieter-Skripte.
CLS (Cumulative Layout Shift) misst, wie stark sich der Seiteninhalt während des Ladens ungewollt verschiebt. Gut: unter 0,1. Das klassische CLS-Problem: Ein Nutzer will auf einen Button klicken — ein nachladendes Bild verschiebt das Layout — der Klick landet woanders. Hauptursachen: Bilder ohne Dimensionsangaben, nachträglich injizierte Werbebanner, Web Fonts mit Layout-Verschiebung.
Felddaten vs. Labordaten — der entscheidende Unterschied
Das ist der konzeptuelle Kern, den man verstehen muss, bevor man mit CWV-Optimierung beginnt.
Die GSC zeigt Felddaten — also Messwerte echter Chrome-Nutzer, aggregiert über 28 Tage aus dem Chrome User Experience Report (CrUX). Das sind die Daten, die Google tatsächlich für das Ranking verwendet. Sie repräsentieren die reale Nutzererfahrung unter realen Bedingungen: unterschiedliche Netzwerke, unterschiedliche Geräte, unterschiedliche Browser.
Lighthouse — erreichbar über Chrome DevTools oder PageSpeed Insights — zeigt Labordaten. Ein simulierter Test unter kontrollierten Bedingungen, der sofort und reproduzierbar Diagnosen liefert. Lighthouse zeigt dir, was schlecht ist und warum — aber es beeinflusst das Ranking nicht direkt.
Die Formel für unseren Workflow: GSC sagt dir wo das Problem ist. Lighthouse sagt dir warum.
In der Praxis: Wir öffnen den CWV-Bericht in der GSC, identifizieren URL-Gruppen mit “Schlecht”-Status, priorisieren nach strategischer Wichtigkeit der Seiten, und führen dann für diese URLs gezielt Lighthouse-Analysen durch. Die Opportunities im Lighthouse-Report — sortiert nach einsparbaren Sekunden — geben die Reihenfolge der Maßnahmen vor.
Wichtig: CrUX-Daten aktualisieren sich mit Verzögerung. Nach einer Optimierung dauert es zwei bis vier Wochen, bis sich die Felddaten in der GSC verbessern — selbst wenn Lighthouse sofort bessere Werte zeigt. Das ist kein Fehler. Es ist der Unterschied zwischen Laborbedingungen und echter Nutzermessung.
Den vollständigen Optimierungs-Workflow haben wir im Artikel zu Core Web Vitals und Website-Performance dokumentiert.
Der JSH-Agentur-Workflow: Wie wir die GSC bei 145 Clients einsetzen
Ich möchte konkret machen, was “die GSC regelmäßig nutzen” in der Praxis bedeutet. Nicht abstrakt, sondern so wie wir es tatsächlich tun.
Wöchentlich — der Schnellcheck
Einmal pro Woche öffnen wir für jeden aktiven Client die GSC und prüfen drei Dinge: Gibt es neue Manual Actions oder Security Issues? Hat es signifikante Klick- oder Impressions-Anomalien in den letzten sieben Tagen gegeben? Und gibt es neue Fehler im Indexierungs-Coverage-Report?
Das dauert pro Client zwei bis fünf Minuten. Aber es bedeutet, dass wir Probleme sehen, bevor sie im Traffic messbar werden — nicht erst vier Wochen später, wenn der Client meldet, dass irgendetwas nicht stimmt.
Monatlich — die tiefe Analyse
Einmal im Monat gehen wir tiefer. Wir analysieren Query-Entwicklungen: Welche Keywords gewinnen Impressionen aber verlieren CTR? Das ist ein Signal für SERP-Veränderungen — neue SERP-Features, die Klicks abziehen, oder Wettbewerber, die in den Top-Ergebnissen vorbeigezogen sind. Wir prüfen, ob Seiten, die wir in diesem Monat überarbeitet oder neu erstellt haben, gecrawlt und indexiert wurden. Wir schauen auf die CWV-Entwicklung. Und wir exportieren die Top-500-Queries für die monatliche Report-Basis.
Wann wir Drittanbieter-Tools einsetzen — und wann nicht
Die GSC hat klare Grenzen. Sie zeigt keine Wettbewerbsdaten, keine Ranking-Entwicklung der Konkurrenz, kein Keyword-Volumen für Keywords, für die du noch nicht rankst. Für Keyword-Recherche, Wettbewerbsanalyse, Backlink-Profil und historische Marktbeobachtung nutzen wir SE Ranking, Ahrefs und Sistrix.
Aber: Wenn jemand fragt, wie eine Website wirklich performt — in der Google-Suche, mit echten Zahlen — dann ist die Antwort immer in der GSC. Der Sichtbarkeitsindex ist ein nützlicher Benchmarking-Index, der Schätzungen aggregiert. Die GSC zeigt, was wirklich passiert ist. Die Kombination ist die Stärke: GSC für Primärdaten, Drittanbieter für Kontext und Wettbewerbssicht.
200+
5,0
zufriedene Kunden





Häufige Fehler und Mythen
„Meine Position ist gefallen, aber GSC zeigt konstante Klicks — wer hat recht?”
Beide können gleichzeitig stimmen. Wenn dein Traffic durch Brand-Queries dominiert wird, können Positionen für nicht-markenbezogene Keywords sinken, ohne dass es sich in den Gesamtklicks niederschlägt. Umgekehrt: Wenn eine Seite von Position 5 auf Position 3 steigt, aber ein Featured Snippet über ihr erscheint, kann die CTR sinken obwohl die Position besser wurde. Position und Klicks müssen immer gefiltert analysiert werden — nie nur auf Gesamtebene.
„Discovered / Crawled — not indexed bedeutet ein Crawl-Problem”
Nein. Das bedeutet ein Inhaltsproblem. Google hat die Seite gesehen und entschieden, sie nicht aufzunehmen. Die technische Seite des Crawlings funktioniert — sonst wäre die Seite gar nicht in dieser Kategorie. Wer als erstes robots.txt oder Crawl-Budget als Ursache untersucht, verliert Zeit. Die erste Frage ist immer: Was steht auf dieser Seite, und warum sollte Google sie indexieren wollen?
„Je mehr Seiten indexiert sind, desto besser”
Das Gegenteil kann richtig sein. Eine große Anzahl dünner, schwach bespielter Seiten im Index kann das Gesamtbild deiner Domain für Google verschlechtern. Wir haben Clients betreut, bei denen das Deindizieren von Tausenden Filter-URLs, Paginierungsseiten und Duplikaten die Rankings der verbleibenden Seiten messbar verbessert hat. Qualität schlägt Quantität — auch beim Index.
„GSC-Daten und Analytics-Daten müssen übereinstimmen”
Sie tun es nicht — und das ist normal. GSC zählt Klicks, wenn jemand auf ein Google-Suchergebnis klickt. Analytics zählt Sessions, wenn jemand auf deiner Website landet. Dark Traffic, Weiterleitungsprobleme, Adblocker, direktes Eingeben nach einem GSC-Klick — es gibt viele Gründe für Abweichungen. Ein Verhältnis von GSC-Klicks zu Analytics-Organic-Sessions zwischen 0,8 und 1,2 ist in der Praxis normal.
„Wenn GSC keinen Fehler zeigt, ist die Website SEO-sauber”
Die GSC zeigt, was Google sieht und explizit meldet. Sie zeigt nicht, was Google still ignoriert — Qualitätsprobleme, die keinen Fehler auslösen, aber trotzdem Ranking-Wirkung haben. “Kein Fehler” in der GSC bedeutet “keine explizite Fehlermeldung” — nicht “alles optimal”. Die GSC ist ein Diagnosewerkzeug, kein Gütesiegel.
Fazit
Die Google Search Console ist kein einmaliges Setup-Tool und kein Reporting-Dashboard, das man öffnet um der Vollständigkeit halber Screenshots für Präsentationen zu machen. Sie ist Googles direkter Kommunikationskanal mit dir — täglich aktualisiert, kostenfrei, und mit einer Datenqualität, die kein Drittanbieter replizieren kann.
Wer sie ernsthaft einsetzt, hat keine Überraschungen. Wer sie ignoriert, erfährt Probleme erst dann, wenn sie bereits Traffic kosten.
Bei JSH ist die GSC der Ausgangspunkt jeder SEO-Arbeit. Nicht weil wir keine anderen Tools nutzen — sondern weil die Diagnose immer vor der Therapie kommt. Und die verlässlichste Diagnose liefert Googles eigene Stimme.
Du willst wissen, was deine GSC-Daten wirklich über deine Website aussagen? Wir schauen gemeinsam rein — kostenlos und konkret.
Zur kostenlosen SEO-Erstanalyse