TXT
robots.txt Generator – Crawl-Steuerung für Suchmaschinen sauber aufgesetzt
robots.txt Best Practices
- Keine sensiblen Inhalte „verstecken“ – robots.txt ist öffentlich abrufbar.
Disallowsteuert Crawling, nicht Indexierung (dafürnoindexnutzen).- Starke Sperren (Disallow: /) nur für Staging / Testumgebungen einsetzen.
- Sitemap-URL immer mit aufnehmen, wenn du eine sitemap.xml verwendest.
- Nach Änderungen: robots.txt und Sitemap in der Google Search Console prüfen.