Cloaking im SEO: Was es ist, warum es gefährlich ist und wie Du es erkennst

Kategorie: Der SEO Blog
Cloaking im SEO

Von Julian Hofmann | Aktualisiert: Februar 2026 | Lesezeit: ca. 10 Min

In unserer SEO Agentur begegnet uns Suchmaschinen Cloaking regelmäßig – und zwar häufiger als man denkt. Mal entdecken wir es bei der Übernahme eines neuen Kundenprojekts, mal bei der Wettbewerbsanalyse, und manchmal sogar auf Websites, deren Betreiber gar nicht wissen, dass ihre Seite gecloakt wird – weil sie z.B. gehackt wurde. Das Thema Cloaking ist in der Suchmaschinenoptimierung ein Dauerbrenner und das Risiko wird häufig unterschätzt.

Cloaking ist eine der ältesten Black Hat SEO Techniken. Die Grundidee: Suchmaschinen-Bots werden andere Inhalte und Informationen gezeigt als den echten Besuchern der Webseite. Das Ziel ist klar: das Ranking in den Suchergebnissen zu manipulieren. Das Problem: Google erkennt diese Mechanismen heute schneller denn je – und die Konsequenzen sind drastisch. Von Ranking-Verlust bis zur kompletten Deindexierung und dem Ausschluss aus dem Index.

In diesem Artikel erkläre ich Dir, was Cloaking – also das gezielte Verhüllen von Inhalten – genau ist, welche Cloaking Techniken es gibt, warum Google diese Verhüllung so hart bestraft, wie Du Cloaking auf Deiner eigenen Webseite erkennst – und welche legitimen Praktiken oft fälschlicherweise mit Cloaking verwechselt werden. Jeder Webmaster sollte dieses Thema verstehen.

Was ist Cloaking im SEO? – Definition

Cloaking (englisch für „verhüllen“ oder „tarnen“, oft auch als „cloak“ bezeichnet) beschreibt im SEO-Kontext eine Technik, bei der der Webserver dem Googlebot – also dem Suchmaschinen-Bot – bewusst andere Inhalte präsentiert als dem normalen Webseitenbesucher (Nutzer). Der Webserver erkennt anhand technischer Angaben wie der IP-Adresse, dem User Agent Name oder dem HTTP-Header, ob ein Bot oder ein menschlicher Nutzer die URL aufruft, und liefert entsprechend eine jeweils andere Version des Quelltextes aus.

Ein Beispiel: Eine Webseite zeigt dem Googlebot eine textreiche, keyword-optimierte Seite über „günstige Versicherungen“. Der echte Besucher sieht dagegen eine Seite voller Werbebanner oder wird auf eine völlig andere URL weitergeleitet. Der Bot indexiert die optimierte Version mit viel Text und relevanten Informationen – der Webseitenbesucher bekommt etwas völlig anderes. Das ist klassisches Suchmaschinen Cloaking.

Google definiert Cloaking in den Webmaster Guidelines klar als Spam-Versuch und listet es explizit als Verstoß gegen die Richtlinien. Bereits Matt Cutts, der ehemalige Leiter von Googles Webspam Team, hat in zahlreichen Statements klargemacht: Jede Form von Cloaking wird von Google als Täuschung gewertet – ohne Ausnahme. Das gilt übrigens für alle Suchmaschinen, nicht nur für Google. Also auch Suchmaschinen Crawler von KIs erkennen das.

Cloaking und Black Hat SEO – die Einordnung

Cloaking ist eine der bekanntesten Black Hat SEO Techniken in der Suchmaschinenoptimierung. Black Hat SEO beschreibt alle Optimierungstechniken, die gegen die Richtlinien der Suchmaschinen verstoßen – also bewusst versuchen, das Ranking durch Täuschung oder Manipulation zu verbessern. Andere bekannte Black Hat SEO Methoden sind Keyword Stuffing, Link-Spamming, Doorway Pages und Hidden Text.

Was Cloaking besonders problematisch macht: Es ist keine versehentliche Optimierung bzw. Über-Optimierung. Diese Technik erfordert bewusste technische Implementierung – serverseitige Scripte, die gezielt zwischen Bot und Besucher unterscheiden. Deswegen behandelt Google Cloaking als besonders schwerwiegenden Verstoß. Während Keyword Stuffing oft mit einer algorithmischen Abstufung bestraft wird, führt Cloaking häufig zu einer manuellen Maßnahme bis hin zum kompletten Ausschluss aus der Indexierung. Das Risiko einer solchen Strafe für die gesamte Webseite ist enorm.

Aus meiner Erfahrung als SEO-Berater: Ich habe in über 15 Jahren Websites gesehen, die nach einer Cloaking-Strafe nie wieder auf ihre vorherigen Rankings zurückkamen. Die Verbesserung nach einer manuellen Maßnahme dauert Monate bis Jahre – wenn sie überhaupt gelingt. Cloaking ist kein Spiel, bei dem man gewinnen kann.

Julian Kirfel Partner der Agentur JSH Marketing Heiko Lindner Social Media Zufriedener Kunde von Google Doktor

200+

5,0

zufriedene Kunden

Top SEO Agentur 2025
Google Partner - SEO Agentur die Google Partner - Logo
Microsoft Partner für erfolgreiche Bing ads
Top Empfehlung 2025 JSH Marketing - SEO Angentur
seo top 100 2026

Welche Arten von Cloaking gibt es? – Cloaking Techniken im Überblick

Es gibt mehrere technische Varianten Crawler zu täuschen. Alle verfolgen das gleiche Ziel: dem Suchmaschinen-Crawler andere Inhalte zu zeigen als dem Webseitenbesucher. Im Gegensatz zu legitimen Optimierungsmaßnahmen basieren alle Cloaking Techniken auf Täuschung. Die Methoden unterscheiden sich darin, wie der Webserver den jeweiligen Besucher identifiziert.

IP-basiertes Cloaking (IP Delivery)

Beim IP Cloaking – auch IP Delivery genannt – identifiziert der Webserver den Besucher anhand seiner IP-Adresse. Die Standard IP-Adressen der bekannten Suchmaschinen-Bots (z.B. Googlebot) sind öffentlich dokumentiert. Der Webserver prüft bei jedem Zugriff: Kommt die Anfrage von einer bekannten Bot-IP-Adresse? Wenn ja, werden andere Dateien und ein anderer Quellcode ausgeliefert – die optimierte Version. Wenn die Anfrage von einer normalen Standard IP-Adresse kommt, sieht der Besucher die reguläre Webseite. Das ist die älteste und direkteste Form des Suchmaschinen Cloakings.

User-Agent-Cloaking (Agent Name Delivery)

Beim User-Agent-Cloaking – in der Fachsprache auch Agent Name Delivery genannt – wird nicht die IP-Adresse geprüft, sondern der User Agent Name im HTTP-Header. Jeder Browser und jeder Bot identifiziert sich mit einem bestimmten String – den sogenannten Agent Names wie z.B. „Googlebot/2.1“ oder „Mozilla/5.0“. Der Webserver wertet diesen Namen aus und liefert je nach Ergebnis unterschiedlichen Quelltext und verschiedene Inhalte. Diese Technik ist einfacher umzusetzen als IP Delivery, aber auch leichter zu erkennen, weil Google User Agent Names leicht fälschen kann.

JavaScript-Cloaking

Bei dieser Cloaking Technik wird der eigentliche Inhalt per JavaScript nachgeladen. Historisch konnten Suchmaschinen-Bots JavaScript nicht oder nur eingeschränkt ausführen. Die gecloakte Seite zeigt dem Bot eine statische HTML-Version mit optimiertem Text, Bilder-Beschreibungen und strukturierten Inhalten – während der Browser des Users per JavaScript völlig andere Dateien, Videos oder früher sogar Flash Animationen rendert. Im Gegensatz zu früher kann Google seit 2019 (Evergreen Googlebot) JavaScript aber vollständig rendern und den Quellcode auswerten. Diese Cloaking-Methode ist daher deutlich riskanter geworden.

HTTP-Referrer-Cloaking

Hierbei wird geprüft, woher der jeweilige Besucher kommt. Kommt er über die Google-Suchergebnisse? Direkt über die URL? Über einen Backlink? Je nach Referrer-Angaben wird unterschiedlicher Content und anderer Text ausgeliefert. Diese Cloaking Technik wird häufig im Affiliate-Bereich und bei Spam-Webseiten eingesetzt.

Der Webserver setzt beim ersten Besuch ein Cookie. Bei wiederholten Besuchen wird geprüft, ob das Cookie vorhanden ist. Da Suchmaschinen-Bots keine Cookies akzeptieren, sehen sie dauerhaft die „Erstbesucher-Version“ – die speziell für die Suchmaschinen optimiert wurde. Der wiederkehrende User dagegen sieht eine andere Version. Auch das ist eine klare Form des Cloakings.

Warum Google Cloaking so hart bestraft

Alle Suchmaschinen haben ein klares Ziel: Die Inhalte im Index müssen dem entsprechen, was der Besucher nach dem Klick in den Suchergebnissen tatsächlich auf der Webseite sieht. Cloaking untergräbt dieses Prinzip fundamental. Wenn Suchmaschinen Cloaking tolerieren würden, könnten unseriöse Webseiten für beliebige Suchbegriffe ranken – und der Webseitenbesucher würde nach dem Klick etwas völlig anderes vorfinden als erwartet.

Die Konsequenzen sind entsprechend drastisch: Algorithmische Abstufung – Google SpamBrain erkennt Cloaking-Muster automatisch und stuft betroffene Webseiten im Ranking herab. Manuelle Maßnahme durch das Webspam Team – ein Google-Reviewer prüft die Seite manuell und verhängt eine Strafe. Du siehst diese Nachricht in der Google Search Console unter „Sicherheit & manuelle Maßnahmen“. Und im schlimmsten Fall: Vollständiger Ausschluss und Deindexierung – die komplette Entfernung aus dem Google-Index. Schon Matt Cutts hat wiederholt betont, dass die Erholung nach einer Cloaking-Strafe extrem schwierig ist.

Google hat die Erkennung von Cloaking Techniken in den letzten Jahren massiv verschärft. SpamBrain, Googles KI-basiertes Anti-Spam-System, erkennt Cloaking-Muster deutlich zuverlässiger als die alten regelbasierten Systeme. Und seit der Googlebot eine Evergreen-Rendering-Engine nutzt, kann der Bot JavaScript vollständig ausführen – eine wichtige technische Lücke für Cloaking ist damit geschlossen.

Cloaking in der Praxis – Beispiele aus unserer Agenturarbeit

In unserer täglichen Arbeit bei JSH Marketing begegnen uns drei typische Szenarien, in denen Cloaking eine Rolle spielt:

Das häufigste Szenario: Gehackte Webseiten. Der Betreiber bemerkt nichts, weil die Webseite für ihn als normalen Besucher völlig normal aussieht. Aber der Googlebot sieht im Quelltext versteckte Spam-Inhalte, manipulierte Dateien oder Weiterleitungen auf dubiose URLs – Pharma-Spam, Glücksspiel, Malware. Das passiert vor allem bei WordPress-Webseiten mit veralteten Plugins. Wir entdecken das regelmäßig bei der Übernahme neuer Kundenprojekte.

Das zweite Szenario: Agentur-Cloaking durch Unwissenheit. Manche Agenturen setzen diese Technik ein, ohne sie als Cloaking zu erkennen – z.B. indem sie dem Googlebot eine speziell aufbereitete Version einer Single-Page-Application mit mehr Text und Informationen zeigen als dem normalen User. Das kann in eine Grauzone fallen, birgt aber ein erhebliches Risiko.

Das dritte Szenario: Bewusstes Cloaking in hart umkämpften Nischen. In Branchen wie Glücksspiel, Pharma oder Erotik setzen einige Betreiber bewusst Cloaking Techniken ein, weil sie wissen, dass ihre Inhalte gegen die Google-Richtlinien verstoßen. Das ist keine Suchmaschinenoptimierung mehr – das ist Webspam.

Cloaking erkennen: So prüfst Du Deine eigene Webseite

Wenn Du als Webmaster sicherstellen willst, dass Deine Webseite nicht (unbeabsichtigt) cloakt, gibt es mehrere Möglichkeiten zur Überprüfung:

Google Search Console: Nutze die Funktion „URL-Überprüfung“ und vergleiche die gerenderte Version mit dem, was Du als Besucher im Browser siehst. Achte auf Unterschiede im Text, in Bilder-Einbindungen und im Quellcode. Wenn der Googlebot andere Inhalte sieht als Du, ist das ein deutliches Warnsignal.

Google Cache: Google hat den cache:-Operator 2024 eingestellt. Du kannst stattdessen die Wayback Machine (web.archive.org) nutzen, um ältere Versionen Deiner Webseite mit der aktuellen Live-Version zu vergleichen. Noch besser: Nutze direkt die URL-Überprüfung in der Google Search Console – dort siehst Du exakt, welchen Quelltext und welche Inhalte der Googlebot auf Deiner URL tatsächlich rendert.

Fetch as Googlebot: In der Search Console unter „URL-Überprüfung“ → „Live-URL testen“ siehst Du genau, was der Googlebot im Quelltext und im gerenderten Ergebnis sieht. Vergleiche das sorgfältig mit der Version für den normalen Webseitenbesucher.

Online-Tools: Kostenlose Tools wie SiteChecker oder DupliChecker bieten Cloaking-Checks an. Gib Deine URL ein und das Tool vergleicht die Bot-Version mit der User-Version und prüft den jeweiligen Quelltext auf Unterschiede.

Regelmäßige Audits: Wir empfehlen, die Webseite mindestens quartalsweise auf Cloaking-Anzeichen zu prüfen – besonders wenn WordPress mit vielen Plugins im Einsatz ist. So erkennst Du Probleme früh und vermeidest das Risiko einer Abstrafung.

Was KEIN Cloaking ist – häufige Verwechslungen

Viele Webmaster und Webseitenbetreiber sind verunsichert, ob bestimmte legitime Praktiken als Cloaking gelten. Hier die Klarstellung zu den häufigsten Verwechslungen:

Responsive Design ist kein Cloaking. Wenn Deine Webseite auf dem Smartphone ein anderes Layout zeigt als auf dem Desktop – z.B. andere Bilder-Größen oder angepasste Videos – ist das kein Cloaking, solange die Inhalte im Kern dieselben sind. Google empfiehlt responsive Design sogar ausdrücklich.

Geotargeting ist kein Cloaking. Wenn Du Besuchern in Deutschland deutsche Inhalte und Usern in den USA englische Inhalte zeigst, ist das legitime Dienstleistung – solange Du hreflang-Tags korrekt einsetzt und die Suchmaschinen alle Versionen crawlen können. Geotargeting dient der Verbesserung der User Experience, nicht der Täuschung.

Paywall-Content ist kein Cloaking. Wenn die Suchmaschinen Crawler den vollständigen Artikel im Quelltext crawlen kann, der Besucher aber nur einen Teaser sieht (mit Flexible Sampling), ist das keine Täuschung – Die Crawler bzw. Suchmaschinen kennen und akzeptieren dieses Modell.

A/B-Testing ist kein Cloaking. Solange die Suchmaschinen alle Varianten sehen können und rel=„canonical“ korrekt gesetzt ist, ist das völlig in Ordnung und dient der Optimierung und Verbesserung der Webseite.

JavaScript-Rendering ist kein Cloaking. Wenn Deine Single-Page-Application Inhalte, Bilder und Videos per JavaScript nachlädt und der Googlebot diese rendern kann, ist das kein Cloaking – im Gegensatz zu früheren Flash Animationen, die für Suchmaschinen nicht lesbar waren. Wichtig ist nur, dass der gerenderte Content für Bot und User identisch ist.

Ist Cloaking illegal?

Cloaking verstößt gegen die Google-Richtlinien und führt in der Suchmaschinenoptimierung zu Abstrafungen, ist aber nicht im strafrechtlichen Sinne illegal. Es gibt keine Gesetze, die Cloaking als Technik verbieten. Allerdings kann es in Kombination mit Betrug (z.B. Phishing, Malware-Verbreitung über gecloakte Webseiten) strafrechtlich relevant werden.

Kann man nach einer Cloaking-Strafe wieder ranken?

Ja, aber die Verbesserung dauert. Nach einer manuellen Maßnahme musst Du das Cloaking entfernen, die Webseite bereinigen und über die Google Search Console einen Antrag auf erneute Überprüfung stellen (Reconsideration Request). Google sendet dann eine Nachricht, ob die Strafe aufgehoben wurde. Die Erholung der Indexierung und Rankings dauert in der Regel 3–6 Monate, manchmal länger.

Kann meine Webseite gecloakt werden, ohne dass ich es weiß?

Ja, das ist einer der häufigsten Fälle. Gehackte Webseiten werden oft mit versteckten Spam-Inhalten und manipulierten Dateien versehen, die nur der Bot sieht – der normale Webseitenbesucher bemerkt nichts. Prüfe regelmäßig Deine Search Console auf Sicherheitswarnungen und halte CMS und Plugins aktuell.

Ist Affiliate-Link-Cloaking das gleiche wie SEO-Cloaking?

Nein, das sind zwei verschiedene Dinge. Affiliate-Link-Cloaking (z.B. das Kürzen langer Tracking-URLs mit „hübschen“ Links) ist eine völlig andere Praxis. Hier wird nicht versucht, die Suchmaschinen zu täuschen – solange der Besucher auf der verlinkten Seite das findet, was er erwartet. SEO-Cloaking hingegen hat das Ziel, gezielt den Bot zu cloak, also zu täuschen.

Erkennt Google Cloaking immer?

Nicht sofort, aber mit hoher Wahrscheinlichkeit. Googles SpamBrain und das Webspam Team werden immer besser. Außerdem kann Google Webseiten stichprobenartig mit verschiedenen User Agent Names und von verschiedenen IP-Adressen aus aufrufen, um Unterschiede zu erkennen. Es ist bei Suchmaschinen Cloaking nur eine Frage der Zeit, bis die Täuschung auffliegt

Finger weg von Cloaking – es lohnt sich nicht

Cloaking war vielleicht 2010 noch eine riskante, aber gelegentlich erfolgreiche Technik. 2026 ist es ein Relikt aus einer anderen SEO-Ära. Googles Erkennungsmechanismen sind zu gut, die Strafen zu hart, und das Risiko zu groß. Wer auf nachhaltige Suchmaschinenoptimierung setzt, braucht gute Inhalte, saubere Technik und eine Strategie, die auf E-E-A-T aufbaut. Die echte Verbesserung der Rankings kommt durch Qualität, nicht durch Verhüllung.

Als SEO Agentur sehen wir unsere Aufgabe auch darin, unsere Kunden vor solchen Gefahren zu schützen. Wenn Du unsicher bist, ob auf Deiner Website Cloaking stattfindet – z.B. nach einem Hack oder durch eine frühere Agentur – helfen wir Dir gerne mit einem technischen SEO Audit. Lieber einmal prüfen als jahrelange Rankings und Sichtbarkeit in den Suchergebnissen verlieren.

Über den Autor:
Julian Hofmann
Hallo, ich bin Julian und Geschäftsführer von JSH Marketing. Seit über 15 Jahren brenne ich für das Suchmaschinenmarketing – für mich ist das mehr als nur Zahlen, sondern die Verbindung aus analytischer Präzision und strategischem Weitblick. Mit meinem Hintergrund in der Philosophie hinterfrage ich gerne den Status Quo, um messbare Ergebnisse zu liefern, die wirklich Bestand haben.
Hier im Blog beantworte ich die Fragen, die mir in der täglichen Zusammenarbeit mit meinen Kunden begegnen – ehrlich, fundiert und direkt aus der Praxis.
Zurück zum Blog
Termin buchen kontakt@jsh.marketing +49 (0) 89 215384160
WordPress Cookie Plugin von Real Cookie Banner