Cloaking-Detektor: Sehen Crawler das Gleiche wie Besucher?
Beim Cloaking liefert eine Website unterschiedlichen Clients unterschiedliche Inhalte aus – typischerweise einen keyword-optimierten Text an Googlebot und eine ganz andere (oft minderwertige oder kommerziell ausgerichtete) Version an den tatsächlichen Besucher. Das ist ein harter Ranking-Verstoß gegen Googles Richtlinien und führt in der Regel zu manuellen Maßnahmen. Cloaking kann aber auch unabsichtlich passieren – etwa wenn ein Sicherheits-Plugin, ein A/B-Test-Tool, ein CDN oder eine schlecht konfigurierte WAF den Content je nach User-Agent anders ausliefert.
Unser Cloaking-Detektor holt dieselbe URL zweimal: einmal mit einem normalen Browser-UA, einmal als Googlebot. Dann extrahiert er aus beiden Antworten ein strukturiertes Seiten-Outline (Title, Meta-Description, Canonical, H1, H2-Liste, Wortanzahl, Outbound-Links) und vergleicht beide Seite an Seite. Unterschiede werden farbig markiert; die zusammengefasste Findings-Liste nennt die Schweregrade.
Cloaking / UA-Diff-Detektor
Lädt eine URL zweimal — einmal als normaler Browser, einmal als Googlebot — und vergleicht das extrahierte Seiten-Outline. Erkennt Cloaking, nur per JS geladene Inhalte und unbeabsichtigtes UA-basiertes Branching.
Hinweis: Bei vielen Prüfungen in kurzer Folge kann der Zielserver oder ein CDN (Cloudflare, Imperva, Akamai) Anfragen temporär drosseln. Bei WAF- oder Rate-Limit-Fehlern warten Sie einige Minuten. Ergebnisse werden 5 Minuten gecacht — ein erneuter Aufruf derselben URL kostet nichts.
So nutzen Sie den Detektor
- URL eingeben: Jede vollständige URL, z. B.
https://beispiel.de/produkt/test. - Check starten: Ein Klick genügt. Die Prüfung dauert ~3–6 Sekunden und bleibt beim wiederholten Aufruf derselben URL dank Cache nahezu instant.
- Findings lesen: Rote Treffer sind echte Cloaking-Indikatoren – Title, Description, Canonical oder H1 unterscheiden sich. Gelbe Treffer sind weicher: H2-Listen weichen ab oder die Wortanzahl weicht um mehr als 10 % ab.
- Side-by-side-Outline durchklappen: Für jeden Abschnitt zeigt eine Badge „Matches“ oder „Differs“ an. Bei abweichenden Feldern ist der Hintergrund dezent rot gefärbt.
Was der Detektor prüft
| Feld | Warum es relevant ist | Schweregrad bei Abweichung |
|---|---|---|
| Title | Das wichtigste Ranking-Signal. Unterschiedlicher Title pro UA ist klassisches Cloaking. | Hoch |
| Meta-Description | Beeinflusst das Snippet in den SERPs. | Hoch |
| Canonical | Unterschiedliches Canonical pro UA verwirrt Google massiv. | Hoch |
| H1 | Kern-Content-Signal, keine Toleranz für Unterschiede. | Hoch |
| H2-Liste | Inhalts-Struktur – Abweichungen deuten auf Content-Branching. | Mittel |
| Wortanzahl | Ab 10 % Abweichung weichen die Inhalte substanziell voneinander ab. | Mittel bei >10 % |
| Outbound-Links | Unterschiede zeigen UA-spezifische Monetarisierung oder Affiliate-Cloaking. | Mittel |
Bekannte Grenzen
Kein Headless-Browser
Der Detektor holt nur den rohen HTML-Response, nicht die fertig gerenderte Seite nach JavaScript-Ausführung. Wenn eine Website ausschließlich via Client-Side-JS cloakt (sehr selten), wird der Detektor das nicht sehen. Für das, was Googlebot tatsächlich indexiert, ist das aber die richtige Sicht: Googles Render-Stack wartet zwar auf JS, aber der initial HTML ist weiterhin der Hauptinput – und genau den vergleichen wir.
Nur User-Agent-Cloaking
Wir diffen die Response für zwei UAs. IP-basiertes Cloaking (anders für Google-IP-Ranges als für andere IPs) erkennen wir nicht – das lässt sich nur aus einem IP-Bereich von Google selbst testen. Reverse-DNS-basiertes Cloaking ebenfalls nicht.
Nur zwei Fetches
Standardmäßig prüfen wir Browser vs. Googlebot. Bingbot, Apple-Touch oder mobile Safari lassen sich per WP-Filter hinzufügen (Details in der PHPDoc der Parser-Funktion).
Häufig gestellte Fragen
Warum zeigt mein eigener Check „kein Unterschied“, obwohl ich weiß, dass ich A/B-teste?
A/B-Tests hängen meistens am Cookie oder an einer JavaScript-Randomisierung – nicht am User-Agent. Server-seitiges UA-Routing ist selten. Unser Detektor ist explizit für UA-basiertes Cloaking gebaut; andere Branching-Arten sieht er nicht.
Was bedeutet „Blocked by WAF“ auf einer der beiden Karten?
Eine Web Application Firewall (Cloudflare, Imperva, Sucuri etc.) hat den jeweiligen User-Agent erkannt und blockiert. Das ist kein Cloaking im Sinne von Google-Richtlinien, kann aber ein echtes SEO-Problem sein: wenn Googlebot regelmäßig vom WAF abgeblockt wird, bekommt Google Ihre Seite nicht zu sehen.
Warum bekomme ich bei vielen Prüfungen hintereinander Fehler?
Bei zahlreichen Checks in kurzer Folge kann ein vorgeschalteter Webserver oder eine WAF die Anfragen temporär als bot-artig einstufen und drosseln. Warten Sie 2–5 Minuten und versuchen Sie es erneut. Ergebnisse werden für 5 Minuten gecacht.
Änderungsprotokoll
- Neues Tool im MWT-Toolkit
- Prüft dieselbe URL mit Browser-UA und Googlebot-UA
- Extrahiert strukturiertes Outline: Title, Meta-Description, Canonical, H1, H2-Liste, Wortanzahl, Outbound-Links
- Side-by-side-Vergleich mit „Matches“/„Differs“-Badges pro Feld
- Dreistufige Findings-Schweregrade (Hoch / Mittel / Info)
- Ergebnisse werden 5 Minuten pro UA gecacht – separate Cache-Keys pro User-Agent
- Zusätzliche User-Agents per WP-Filter erweiterbar






