Eine robots.txt-Datei hinzufügen oder aktualisieren

Hinweis

Die Retail-Interessengruppe von Dynamics 365 Commerce wurde von Yammer zu Viva Engage verschoben. Wenn Sie keinen Zugriff auf die neue Viva Engage-Community haben, füllen Sie dieses Formular (https://aka.ms/JoinD365commerceVivaEngageCommunity) aus, um hinzugefügt zu werden und sich weiterhin in die neuesten Diskussionen einbringen zu können.

In diesem Artikel wird beschrieben, wie Sie die robots.txt Datei für jede in Microsoft Dynamics 365 Commerce gehostete Domäne erstellen, bearbeiten, hochladen und überprüfen.

Unerwartetes oder ungesteuertes Crawlen Ihrer Website durch Suchmaschinen kann zu einer hohen Anzahl von 404-Seite nicht gefunden-Fehlern führen. Diese Fehler können zu Leistungsproblemen führen, wenn die Website auf die vielen Anforderungen nach Seiten reagiert, die nicht vorhanden sind. Um dieses Problem zu beheben, stellen Sie sicher, dass Ihre Domain immer über eine aktuelle und gültige robots.txt-Datei verfügt, um Webcrawler anzuweisen, nur nach relevanten Seiten auf Ihrer Website zu suchen.

Gilt für

Dieser Artikel gilt für die folgenden Konfigurationen angewendet werden:

  • Version: Commerce  10.0.16 und höher
  • Komponente: Business-to-Consumer (B2C) oder Business-to-Business (B2B)
  • Funktionsbereich: Leistung der Commerce-Website

Voraussetzungen

  • Sie sind ein Systemadministrator in Ihrer Commerce-Instanz.

  • Sie haben je nach Situation eine robots.txt Datei auf Ihrem Computer erstellt oder eine Kopie heruntergeladen:

    • Wenn Sie noch keine robots.txt Datei für Ihre Domäne hochgeladen haben, erstellen Sie eine neue Datei auf Ihrem Computer, indem Sie dem Roboterausschlussstandard folgen. Benutzen Sie die Beispieldatei robots.txt später in diesem Artikel als Ausgangspunkt.
    • Wenn Sie zuvor eine robots.txt-Datei für Ihre Domain hochgeladen haben, laden Sie Sie laden Sie die vorhandene Datei herunter.

Schritte abgeschlossen

Führen Sie die folgenden Schritte aus, um eine robots.txt Datei zu bearbeiten und hochzuladen:

  1. Öffnen Sie Ihre lokale Kopie der robots.txt-Datei.
  2. Bearbeiten Sie die Datei so, dass sie alle Einträge Nicht zulassen in der Beispieldatei robots.txt entählt.
  3. Vergewissern Sie sich, dass die Datei entsprechend Ausschlussstandard für Roboter entsprechend formatiert ist.
  4. Laden Sie die Datei hoch, indem Sie den Anweisungen unter "Hochladen einer robots.txt Datei" folgen.

Beispielinhalt der robots.txt-Datei

User-agent: *
Disallow: /signin
Disallow: /cart
Disallow: /*refiners=
Disallow: /*sorting=
Disallow: /*search?
Disallow: /*search=
Disallow: /*.woff
Disallow: /*.woff2
Disallow: /*skip=

Validieren

Verwenden Sie die folgende Methode, um zu überprüfen, ob die robots.txt Datei hinzugefügt wird:

  • Beschreibung oder Zweck: Überprüfen Sie, ob Ihre robots.txt-Datei für Ihre Domain verfügbar ist.
  • Schritte zum Ausführen: Öffnen Sie die Seite in einem Webbrowser unter <Ihre Domäne>/robots.txt.
  • Bestandenes Ergebnis: Sie können Ihre robots.txt-Datei anzeigen.

Hinweis

Wenn Sie von einer internen Commerce-generierten Domäne (.dynamics365commerce.ms) testen, müssen Sie den Abfrageparameter ?domain= anfügen, um Ihre hochgeladenen robots.txt-Inhalte anzuzeigen. Zum Beispiel: https://<e-commerce-tenant-name>.dynamics365commerce.ms/robots.txt?domain=<your-custom-domain>. Ohne diesen Parameter geben interne Domänen eine Ablehnungsantwort zurück. Weitere Informationen zu vom Commerce generierten URLs finden Sie unter "Commerce-generierte URLs". Informationen dazu, wie robots.txt Dateien mit Domänen funktionieren, finden Sie unter How robots.txt works with different domain types.

Zusätzliche Ressourcen

Robots.txt-Dateien verwalten

Systemadministratorrolle