Anlegen einer einfachen robots.txt-Datei für Onlineshops

Anlegen einer einfachen robots.txt-Datei für Onlineshops

Für Betreiber von Onlineshops ist es wichtig, ihre Website optimal für Suchmaschinen zu gestalten, um die Sichtbarkeit und Auffindbarkeit zu erhöhen. Die robots.txt-Datei spielt hierbei eine wichtige Rolle. Sie ist eine einfache Textdatei, die Suchmaschinen mitteilt, welche Bereiche einer Website durchsucht und indexiert werden dürfen und welche nicht. Dies hilft dabei, nur relevante seiten in den Suchergebnissen anzuzeigen und unerwünschte Seiten, wie z.B. den Checkout-Bereich oder interne Suchergebnisse, auszuschließen. In dieser Anleitung erfahren Sie, wie Sie eine robots.txt-Datei erstellen und konfigurieren können, um Ihre Website gezielt zu steuern und die Suchmaschinenoptimierung (SEO) Ihres Onlineshops zu verbessern.

Was ist die robots.txt-Datei?

Die robots.txt-Datei ist eine einfache Textdatei, die im Stammverzeichnis Ihrer Website gespeichert wird. Ihre Hauptaufgabe besteht darin, Webcrawlern (auch als Bots bezeichnet) Anweisungen zu geben, welche Seiten oder Bereiche Ihrer Website durchsucht ("gecrawlt") oder indexiert werden dürfen und welche nicht.

Wo befindet sich die robots.txt-Datei?

Die Datei sollte direkt im Stammverezeichnis Ihrer Website abgelegt werden, sodass sie unter der folgenden URL zugänglich ist: https://www.ihredomain.tld/robots.txt. Das Stammverzeichnis ist der Hauptordner Ihrer Website, in dem auch die Startseite (z.B. index.html oder index.php) zu finden ist.

Wie ist die robots.txt-Datei aufgebaut?

Die Datei besteht aus einer Reihe von Anweisungen, die den Suchmaschinen-Crawlern sagen, welche Bereiche der Website durchsucht werden dürfen und welche nicht. Die zwei häufigsten Direktiven sind:

  • User-agent: Gibt an, für welchen Suchmaschinen-Crawler die nachfolgenden Anweisungen gelten sollen. Der Platzhalter * steht für alle Crawler.
  • Disallow: Gibt den Pfad der Seite oder des Verzeichnisses an, das nicht durchsucht werden soll. Ein leeres Disallow bedeutet, dass der Crawler alle Bereiche durchsuchen darf.

Beispiele für eine robots.txt-Datei

User-agent: *
Disallow: /checkout/
Disallow: /cart/
Disallow: /search/

In diesem Beispiel sind alle Suchmaschinen-Crawler angewiesen, die Seiten /checkout/, /cart/ und /search/ nicht zu durchsuchen. Dies verhindert, dass diese Bereiche in den Suchmaschinenergebnissen erscheinen.

CMS und Shopsysteme: Automatisierte Erstellung der robots.txt-Datei

Bevor Sie die robots.txt-Datei manuell erstellen, sollten Sie prüfen, ob Ihr CMS oder Shopsystem eine Funktion zur automatischen Generierung der Datei bietet. Viele Content-Management-Systeme (CMS) und Shopsysteme ermöglichen es, die robots.txt-Datei direkt im Admin-Bereich zu erstellen und anzupassen, ohne dass Sie manuell eine Datei anlegen müssen.

Beispiel für Shopware 6:

In Shopware 6 wird die robots.txt-Datei automatisch generiert und kann direkt über den Admin-Bereich angepasst werden:

  1. Navigieren Sie im Admin-Bereich von Shopware 6 zu Inhalte > SEO.
  2. Unter dem Punkt SEO-Index finden Sie eine Option zur Bearbeitung der robots.txt.
  3. Hier können Sie eigene Regeln hinzufügen oder bestehende bearbeiten, um den Zugriff auf bestimmte Bereiche Ihres Shops zu steuern.
  4. Speichern Sie die Änderungen. Shopware wird die robots.txt-Datei automatisch aktualisieren und bereitstellen.

Online-Tools zur Erstellung und Überprüfung der robots-txt-Datei

Wenn Sie die Datei manuell erstellen oder anpassen möchten, gibt es im Internet viele kostenlose Tools, die Sie dabei unterstützen können. Diese Tools bieten Funktionen zur Automatisierten Erstellung und Überprüfung der robots.txt-Datei. Mit einem robots.txt-Generator können Sie einfach Anweisungen erstellen, ohne die Syntax selbst schreiben zu müssen. Ein robots.txt-Checker hilft Ihnen, die Datei auf mögliche Fehler zu überprüfen.

Schritt-für-Schritt-Anleitung

Schritt 1: Erstellen der robots.txt-Datei


1

  • Öffnen Sie einen Texteditor auf Ihrem Computer (z.B. Notepad auf Windows oder TextEdit auf MacOS).
  • Erstellen Sie eine neue Datei und speichern Sie sie unter dem Namen robots.txt.

Schritt 2: Grundlegende Konfiguration


2

Beginnen Sie mit den grundlegenden Anweisungen für Ihre robots.txt-Datei:

  • User-agent: Definieren Sie, für welche Crawler die Anweisungen gelten sollen.
  • Disallow: Legen Sie fest, welche Bereiche Ihrer Website nicht durchsucht werden sollen.
User-agent: *
Disallow: /checkout/
Disallow: /cart/
Disallow: /search/

Schritt 3: Anpassung der robots.txt-Datei für spezielle Anforderungen


3

Je nach Struktur und Anforderungen Ihres Onlineshops können Sie die Datei weiter anpassen:

Nur bestimmte Seiten ausschließen

User-agent: *
Disallow: /admin/
Disallow: /private/

Spezifische Anweisungen für verschiedene Suchmaschinen-Crawler

User-agent: Googlebot
Disallow: /private/

User-agent: Bingbot
Disallow: /

Dieses Beispiel zeigt, wie Sie unterschiedlichen Suchmaschinen-Crawlern verschiedene Anweisungen geben können. Hier wird Googlebot der Zugriff auf das /private/-Verzeichnis verwehrt, während Bingbot komplett blockiert wird.


Schritt 4: Hochladen der robots.txt-Datei auf Ihren Server


4

  • Speichern Sie die fertige robots.txt-Datei und laden Sie sie in das Stammverzeichnis Ihrer Website hoch.
  • Stellen Sie sicher, dass die Datei unter der URL https://www.ihredomain.tld/robots.txt aufrufbar ist.

Schritt 5: Überprüfen der robots.txt-Datei


5

  • Testen Sie die Datei, indem Sie die URL direkt in Ihrem Browser öffnen oder Tools wie den "robots.txt-Tester" in der Google Search Console verwenden.
  • Achten Sie darauf, dass die Datei korrekt geladen wird und die gewünschten Anweisungen für Suchmaschinen enthält.

Tipps zur effektiven Nutzung der robots.txt-Datei

  • Keine wichtigen Seiten blockieren: Vermeiden Sie es, wichtige Seiten oder Produktseiten zu blockieren, die in Suchmaschinen sichtbar sein sollen.
  • Regelmäßige Überprüfung und Anpassung: Überprüfen und aktualisieren Sie die robots.txt-Datei regelmäßig, besonders nach strukturellen Änderungen auf Ihrer Website.
  • Suchmaschinenrichtlinien beachten: Beachten Sie, dass unterschiedliche Suchmaschinen die robots.txt-Anweisungen unterschiedlich interpretieren können. Stellen Sie sicher, dass Ihre Datei den Best Practices folgt.

Die robots.txt-Datei ist ein unverzichtbares Werkzeug, um die Kontrolle über die Sichtbarkeit Ihrer Website in Suchmaschinen zu behalten. Mit einer durchdachten Konfiguration können Sie sicherstellen, dass nur relevante Inhalte Ihres Onlineshops indexiert werden, während unnötige oder sensible Bereiche ausgeschlossen bleiben. Nutzen Sie diese Anleitung, um eine effektive robots.txt-Datei zu erstellen und so die SEO-Leistung Ihres Onlineshops zu verbessern.

Geschafft! Sie haben eine einfache robots.txt-Datei für Ihren Onlineshop erstellt.

Finden Sie den passenden Tarif

Unser Tarifberater hilft Ihnen dabei, das passende Paket zu finden. Bei Fragen berät Sie unser Sales-Team sehr gerne unter +49 (0) 4131 / 22 78 1-25 oder sales@timmehosting.de.

Bitte beachten Sie: Der Tarifberater dient nur der groben Orientierung. Ihr tatsächlicher Bedarf kann durch den Ressourcenbedarf Ihrer Anwendung(en), tageszeitabhängige/saisonale/aktionsbedingte Schwankungen des Besucheraufkommens, geplantes Wachstum und weitere Faktoren von der Empfehlung abweichen.

  • 1
  • 2
  • 3
  • 4
  • 5

Was möchten Sie hosten?

Möchten Sie einen oder mehrere Shops hosten? (Eine Multishop-Installation gilt als ein Shop.)

Möchten Sie eine oder mehrere Websites hosten? (Eine Multisite-Installation gilt als eine Website.)

Wieviele Besucher haben Sie insgesamt pro Tag?

Wieviele Besucher haben Sie insgesamt pro Tag?

Wieviele Besucher haben Sie insgesamt pro Tag?

Wieviele Artikel haben Sie insgesamt in Ihrem Shop/Ihren Shops (inkl. Varianten)?

Wieviele Artikel haben Sie insgesamt in Ihrem Shop/Ihren Shops (inkl. Varianten)?

Wieviel Speicherplatz benötigen Sie insgesamt?

Wieviel Speicherplatz benötigen Sie insgesamt?

Wieviel Speicherplatz benötigen Sie insgesamt?

Wir empfehlen Ihnen folgende Lösungen:

ScaleServer oder Web Hosting

Zu den ScaleServer Paketen Zu den Web Hosting Paketen

Wir empfehlen Ihnen folgende Lösungen:

ScaleServer oder Shop Hosting

Zu den ScaleServer Paketen Zu den Shop Hosting Paketen

Wir empfehlen Ihnen folgende Lösungen:

Managed vServer oder ScaleServer

Zu den Managed vServer Paketen Zu den ScaleServer Paketen

Wir empfehlen Ihnen folgende Lösungen:

Managed Server oder ScaleServer

Zu den Managed Server Paketen Zu den ScaleServer Paketen

Wir empfehlen Ihnen unsere

Timme Cloud 2.0

Zur Timme Cloud 2.0