Meta Robots
Prüft auf unbeabsichtigte noindex- oder nofollow-Direktiven.
Was dieser Check misst
Wir lesen `<meta name="robots">` und den X-Robots-Tag-HTTP-Header. Flag bei `noindex`, `nofollow`, `none`, `noarchive` auf indexierbaren Seiten.
Warum es wichtig ist
Ein `noindex` auf der Homepage = komplette Unsichtbarkeit bei Google. Passiert öfter als man denkt — von Staging kopiert, im Template vergessen, Plugin gesetzt. Indexation verlieren = Traffic über Nacht weg.
Wie unser Audit es erkennt
Meta-Robots-Tag und X-Robots-Tag-Header parsen. Jeden noindex/nofollow/none/noarchive-Wert auf eigentlich indexierbaren Seiten flaggen.
Typische Findings
- error_outlineHomepage hat `<meta name="robots" content="noindex">` aus Staging übrig.
- error_outlineRobots-Meta aus Dev-Config geleakt: `noindex, nofollow`.
- error_outlineX-Robots-Tag-Header durch fehlerhafte Nginx-Regel auf allen Responses.
So behebst du es
Noindex/nofollow von öffentlichen Seiten entfernen. Bewusst auf Login, Admin, Utility-URLs setzen. Verifizieren in Google Search Console → Seiten — jede "von noindex ausgeschlossene" Seite muss gewollt sein.
Häufige Fragen
Wann noindex verwenden?expand_more
Entfernt noindex sofort?expand_more
Soll das auf deiner Site geprüft werden?
Pantra läuft den vollen Audit (SEO, Sicherheit, GEO, Performance, Schema, Technik, Bilder) in 10 Sekunden und generiert stack-spezifische Fix-Prompts.
Site scannenÄhnliche Checks
Meta Title
Prüft ob jede Seite einen einzigartigen, keyword-relevanten <title>-Tag zwischen 10-60 Zeichen hat.
SEOMeta Description
Prüft ob jede Seite eine einzigartige Meta-Description zwischen 50-160 Zeichen hat.
SEOH1-Tag
Prüft ob jede Seite genau einen H1-Tag mit dem Hauptkeyword hat.
SEOHeading-Hierarchie
Prüft Heading-Reihenfolge — H1 → H2 → H3 ohne Sprünge.