X-Robots-Tag-Header
Prüft X-Robots-Tag-HTTP-Header auf unbeabsichtigte noindex-Direktiven.
Was dieser Check misst
Wir lesen den X-Robots-Tag-Header. Gleiche Semantik wie Meta-Robots, aber vom Server/CDN gesetzt. Versehentliches noindex hier ist typisch und schwer zu debuggen.
Warum es wichtig ist
X-Robots-Tag: noindex auf allen Responses = unsichtbar bei Google. Schwieriger zu erkennen als Meta-Robots weil nicht im HTML — in Response-Headern versteckt.
Wie unser Audit es erkennt
Response-Header lesen, X-Robots-Tag parsen. Jedes noindex/nofollow auf indexierbaren Seiten flaggen.
Typische Findings
- error_outlineX-Robots-Tag: noindex auf allen Responses durch fehlerhafte Nginx.
- error_outlinenoarchive auf Seiten die gecacht werden sollten.
So behebst du es
Server/CDN-Config auf X-Robots-Tag-Regeln prüfen. noindex nur auf Utility-Paths (Admin, Login, API). Search Console → Pages-Report verifizieren.
Häufige Fragen
Meta-Robots oder X-Robots-Tag?expand_more
Soll das auf deiner Site geprüft werden?
Pantra läuft den vollen Audit (SEO, Sicherheit, GEO, Performance, Schema, Technik, Bilder) in 10 Sekunden und generiert stack-spezifische Fix-Prompts.
Site scannenÄhnliche Checks
SSR / Pre-Rendering
Prüft ob die Seite server-gerendert oder statisch pre-rendered ist.
TechnikHTTP-Statuscodes
Prüft korrekte Statuscodes — 200 für live, 404 für nicht vorhanden, 301 für verschoben.
TechnikKeine Client-Side-Redirects
Prüft dass Redirects server-seitig passieren, nicht per JavaScript.
TechnikViewport-Meta-Tag
Prüft auf <meta name="viewport" content="width=device-width, initial-scale=1">.