Hallo zusammen,
ich bin gerade dabei, die SEO-Grundstruktur einer älteren Website zu überarbeiten und möchte dabei auch die robots.txt-Datei prüfen. Da es schnell passieren kann, dass man versehentlich ganze Bereiche für Suchmaschinen blockiert, suche ich nach einem einfachen Tool, mit dem ich gezielt testen kann, ob bestimmte Seiten korrekt freigegeben oder ausgeschlossen sind.
Ich bin dabei auf dieses Tool gestoßen:
https://www.elato-media.com/robots-txt-tester/. Es sieht übersichtlich aus und scheint direkt anzuzeigen, ob die Einträge korrekt funktionieren – genau das, was ich suche.
Hat jemand von euch Erfahrungen damit oder nutzt ihr andere Tools für diesen Zweck?
Viele Grüße