Cloaking: Warum Google es erkennt und warum die Nachteile überwiegen
Christian Alber, M.Sc.
3 Min. Lesezeit
Was ist Cloaking?
Cloaking ist eine Black-Hat-SEO-Technik, bei der dem Googlebot eine andere Version einer Webseite angezeigt wird als echten Nutzern. Wenn der Googlebot eine URL aufruft, sieht er beispielsweise eine keyword-optimierte Textseite. Wenn ein Mensch dieselbe URL aufruft, wird er auf eine völlig andere Seite (z.B. eine Produktseite, Affiliate-Landingpage oder sogar Malware) weitergeleitet. Das Ziel: Rankings für Keywords erzielen, für die der tatsächliche Inhalt nie ranken würde.
Wie funktioniert Cloaking technisch?
- IP-basiert: Der Server erkennt die IP-Adressen der Google-Crawler und liefert ihnen eine andere Version der Seite
- User-Agent-basiert: Der Server liest den User-Agent-Header aus und zeigt dem Googlebot eine andere Version
- JavaScript-basiert: Die Seite verwendet JavaScript, das nur im Browser (nicht im Googlebot-Renderer) eine Weiterleitung auslöst
- HTTP-Referrer-basiert: Nutzer, die von Google kommen, werden auf eine andere Seite umgeleitet als Direktbesucher
Warum Google Cloaking erkennt
Google setzt mehrere Methoden ein, um Cloaking aufzudecken:
- Rendering-Vergleich: Google rendert Seiten mit JavaScript und vergleicht das Ergebnis mit dem HTML. Diskrepanzen sind ein Warnsignal.
- IP-Rotation: Google crawlt von verschiedenen IP-Adressen und Netzwerken, nicht nur von bekannten Googlebot-IPs
- Nutzersignale: Wenn Nutzer sofort von der Seite abspringen (weil der Inhalt nicht dem Snippet entspricht), ist das ein starkes negatives Signal
- Manuelle Überprüfung: Google Quality Rater und das Web Spam Team prüfen verdächtige Seiten manuell
- AI-gestützte Erkennung: Googles SpamBrain nutzt Machine Learning, um Cloaking-Muster automatisch zu identifizieren
Konsequenzen: Was passiert bei Cloaking?
- Manuelle Maßnahme: Google verhängt eine Manual Action, die in der Search Console angezeigt wird. Rankings brechen komplett ein.
- Algorithmische Abwertung: Auch ohne manuelle Maßnahme erkennt SpamBrain Cloaking-Muster und wertet Seiten ab
- Deindexierung: Im schlimmsten Fall wird die gesamte Domain aus dem Google-Index entfernt
- Langfristiger Vertrauensverlust: Selbst nach einer Bereinigung kann es Monate bis Jahre dauern, bis die Domain wieder vollständig vertraut wird
Warum die Nachteile 2026 stärker wiegen als je zuvor
In der Ära von KI-Crawlern, AI Overviews und Helpful Content ist Cloaking noch riskanter als früher:
- KI-Systeme können Inhalte kontextuell analysieren und Diskrepanzen besser erkennen
- Googles SpamBrain wird mit jedem Update besser im Erkennen von Manipulationsmustern
- Die Konkurrenz zwischen Websites ist hoch genug, dass Google verdächtige Reports erhält
- Reputationsschaden: In Zeiten von Transparenz und Trust ist ein Spam-Label verheerend für die Marke
Fazit: Nicht das Risiko wert
Cloaking war nie eine nachhaltige Strategie, und 2026 ist die Erkennungsrate höher denn je. Investieren Sie stattdessen in echten Mehrwert: hochwertige Inhalte, die für Nutzer und Suchmaschinen gleichermassen funktionieren. Das ist nicht nur risikolos, sondern auch langfristig profitabler.
Autor
Christian Alber, M.Sc.Weitere Artikel
Werbung in KI-Antworten: Ads bei ChatGPT, Perplexity und Google AI Overviews
KI-Plattformen führen Werbung ein. ChatGPT testet Sponsored Results, Perplexity hat Ads gestartet und Google zeigt Anzeigen in AI Overviews. Was bedeutet das für Advertiser?
Christian Alber
3 Min.
SEO vs. GEO: Suchmaschinenoptimierung und Generative Engine Optimization im Vergleich
GEO (Generative Engine Optimization) ist das SEO für KI-Antworten. Wir vergleichen beide Disziplinen: Ziele, Taktiken, Metriken und warum Sie beides brauchen.
Christian Alber
2 Min.
Crawling durch KI vs. Googlebot: Wie ChatGPT und Co. das Web durchsuchen
Neben dem Googlebot crawlen jetzt auch KI-Systeme wie ChatGPT, Perplexity und Claude das Web. Was bedeutet das für Website-Betreiber und wie unterscheidet sich KI-Crawling vom klassischen Google-Crawling?
Christian Alber
2 Min.