Technik
TechnikMittel

X-Robots-Tag-Header

Prüft X-Robots-Tag-HTTP-Header auf unbeabsichtigte noindex-Direktiven.

Was dieser Check misst

Wir lesen den X-Robots-Tag-Header. Gleiche Semantik wie Meta-Robots, aber vom Server/CDN gesetzt. Versehentliches noindex hier ist typisch und schwer zu debuggen.

Warum es wichtig ist

X-Robots-Tag: noindex auf allen Responses = unsichtbar bei Google. Schwieriger zu erkennen als Meta-Robots weil nicht im HTML — in Response-Headern versteckt.

search

Wie unser Audit es erkennt

Response-Header lesen, X-Robots-Tag parsen. Jedes noindex/nofollow auf indexierbaren Seiten flaggen.

Typische Findings

  • error_outlineX-Robots-Tag: noindex auf allen Responses durch fehlerhafte Nginx.
  • error_outlinenoarchive auf Seiten die gecacht werden sollten.

So behebst du es

Server/CDN-Config auf X-Robots-Tag-Regeln prüfen. noindex nur auf Utility-Paths (Admin, Login, API). Search Console → Pages-Report verifizieren.

Häufige Fragen

Meta-Robots oder X-Robots-Tag?expand_more
Beides funktioniert. X-Robots-Tag einfacher für Non-HTML (PDFs, Bilder). Meta-Robots pro Seite im HTML.

Soll das auf deiner Site geprüft werden?

Pantra läuft den vollen Audit (SEO, Sicherheit, GEO, Performance, Schema, Technik, Bilder) in 10 Sekunden und generiert stack-spezifische Fix-Prompts.

Site scannen

Ähnliche Checks