Sitemap.xml generieren die alle Routen abdeckt — v0
Ohne Sitemap muss Google Seiten nur über interne Links entdecken. In JS-lastigen AI-Apps ist die Discovery langsam und unzuverlässig — neue Seiten warten wochenlang auf Indexierung.
In v0 fixen
Vercel AI-Component- und App-Generator
v0 nutzt App Router. `app/sitemap.ts` mit MetadataRoute.Sitemap-Export anlegen.
Anderes Tool? Wähle deinen Stack:
Der Prompt für v0
Diesen Text exakt so in deinen v0-Chat kopieren und einfügen.
Regenerate my v0 component / page with these fixes applied: Add sitemap.xml 1. Create /public/sitemap.xml listing every public route. 2. Wrap each URL in a <url><loc>...</loc></url> entry under <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">. 3. Update /public/robots.txt to add a "Sitemap:" line pointing to the new file.
Warum das wichtig ist
Googlebot entdeckt Seiten auf zwei Wegen: Links von bekannten Seiten folgen, und Sitemaps lesen. Wenn deine App wenig externe Backlinks hat (wie die meisten neuen AI-Apps), ist Link-Discovery langsam. Eine Sitemap verkürzt Erst-Indexierung von Wochen auf Tage.
Moderne SPAs haben ein zweites Discovery-Problem: Routen existieren oft erst nach einem Client-Side-Router-Lauf, den Googlebot möglicherweise nicht ausführt. Eine statische `sitemap.xml` umgeht das komplett — jede URL wird vorab in plain XML deklariert.
Sitemap in Google Search Console einreichen schaltet ausserdem den "Seiten"-Report frei, der zeigt welche URLs indexiert sind, welche gecrawlt aber nicht indexiert sind und warum. Ohne diesen Report kannst du Indexierung nicht debuggen — und der Report füllt sich erst nach Sitemap-Submission.
So nutzt du diesen Prompt in v0
- 1. Dein v0-Projekt öffnen.
- 2. Prompt oben mit Copy-Button kopieren.
- 3. In v0-Chat einfügen und senden.
- 4. Diff reviewen, Änderungen akzeptieren, neu deployen.
- 5. Fix mit der Checkliste unten verifizieren.
Typische Fehler vermeiden
- error_outlineHash-basierte Routen (`/app#dashboard`) listen — Google ignoriert Fragmente in Sitemaps.
- error_outlineURLs einbauen die 404 oder 301 zurückgeben.
- error_outlineDie `Sitemap: https://…`-Zeile in robots.txt vergessen.
- error_outlineStatische Sitemap shippen die veraltet weil keiner sie bei Deploys neu generiert.
- error_outlineLogin-, Admin-, Checkout-URLs listen die nicht indexiert werden sollen.
Wie du prüfst ob der Fix geklappt hat
- check_circle`https://deinesite.com/sitemap.xml` im Browser öffnen — muss XML liefern, keine 404.
- check_circle`curl -s https://deinesite.com/sitemap.xml | xmllint --noout -` — muss parsen.
- check_circleIn Google Search Console → Sitemaps einreichen — Status "Erfolgreich" innert 24 Stunden.
- check_circlePrüfen dass `robots.txt` mit `Sitemap: https://deinesite.com/sitemap.xml` endet.
Häufige Fragen
Brauche ich eine Sitemap bei unter 20 Seiten?expand_more
Wie oft sollte ich die Sitemap neu generieren?expand_more
Darf eine Sitemap URLs anderer Domains enthalten?expand_more
Brauche ich <lastmod>, <changefreq> oder <priority>?expand_more
Alle 34 Prompts passend zu deiner v0-Site?
Pantra scannt deine Site in 10 Sekunden, erkennt den Stack und generiert genau die Prompts die passen — nur die du brauchst.
Site scannenÄhnliche v0-Prompts
Robots.txt einrichten die Such- und AI-Crawler erlaubt — v0
Prompt für eine korrekte /public/robots.txt für Google, Bing und AI-Crawler wie GPTBot und PerplexityBot — in Lovable, Cursor, Bolt, v0, Replit, Windsurf, Claude Code, Base44.
AI-Suche / GEOGPTBot, ClaudeBot und PerplexityBot erlauben — v0
Prompt um AI-Crawler zu whitelisten damit ChatGPT, Claude und Perplexity deine Seiten zitieren können. In jedem AI-Stack.
TechnikKaputte interne Links fixen — v0
Prompt um 404s auf internen Links zu finden und zu fixen oder redirecten — SEO- und UX-Win.
SEOEinen einzigartigen <title>-Tag pro Seite setzen — v0
Copy-Paste-Prompt um auf jede Seite einen einzigartigen, keyword-relevanten <title>-Tag zu setzen — in Lovable, Cursor, Bolt, v0, Replit, Windsurf, Claude Code oder Base44.