Logo
Zurück zum Lexikon

Robots.txt

Die Datei "robots.txt" ist eine Textdatei auf der Stammverzeichnisebene einer Website, die Suchmaschinenrobotern Anweisungen gibt, wie sie die Website durchsuchen und indexieren sollen. Sie dient als eine Art "Robots Exclusion Protocol", um den Zugriff von Suchmaschinen auf bestimmte Seiten oder Bereiche einer Website zu steuern.

Die Syntax einer "robots.txt"-Datei ist relativ einfach. Sie besteht aus einer oder mehreren "User-agent"-Anweisungen, gefolgt von den entsprechenden "Disallow"- oder "Allow"-Anweisungen. Hier ist ein Beispiel für den Aufbau einer "robots.txt"-Datei:

User-agent: [User-Agent-Name] Disallow: [Pfad/Verzeichnis] Allow: [Pfad/Verzeichnis]

  • "User-agent" definiert den Suchmaschinenroboter, auf den sich die folgenden Anweisungen beziehen. Zum Beispiel: "User-agent: Googlebot" oder "User-agent: *", um alle Suchmaschinenroboter anzusprechen.

  • "Disallow" gibt an, welche Seiten oder Verzeichnisse für den angegebenen Suchmaschinenroboter gesperrt sind. Zum Beispiel: "Disallow: /verzeichnis/" oder "Disallow: /seite.html".

  • "Allow" ermöglicht den Zugriff auf bestimmte Seiten oder Verzeichnisse, auch wenn sie allgemein gesperrt sind. Es ist jedoch wichtig zu beachten, dass nicht alle Suchmaschinenroboter die "Allow"-Anweisung unterstützen.

Hier ist ein Beispiel für den Inhalt einer "robots.txt"-Datei:

User-agent: * Disallow: /verzeichnis1/ Disallow: /seite.html Allow: /verzeichnis2/

In diesem Beispiel wird allen Suchmaschinenrobotern mit der "User-agent: *" Anweisung mitgeteilt, dass das Verzeichnis "verzeichnis1" und die Seite "seite.html" nicht durchsucht oder indexiert werden dürfen. Das Verzeichnis "verzeichnis2" ist hingegen erlaubt.

Es ist wichtig zu beachten, dass die "robots.txt"-Datei nur eine Anleitung für Suchmaschinenroboter ist und von ihnen respektiert werden kann. Einige Suchmaschinenroboter können die Anweisungen ignorieren oder auf andere Weise auf bestimmte Inhalte zugreifen. Die "robots.txt"-Datei sollte daher als eine Empfehlung betrachtet werden, um den Zugriff von Suchmaschinen auf bestimmte Bereiche der Website zu steuern, aber nicht als vollständige Sicherheitsmaßnahme.