Tilføje eller opdatere en robots.txt-fil

Note

Retail Interest Group af Dynamics 365 Commerce er flyttet fra Yammer til Viva Engage. Hvis du ikke har adgang til det nye Viva Engage-community, skal du udfylde denne formular (https://aka.ms/JoinD365commerceVivaEngageCommunity) for at blive tilføjet og forblive engageret i de seneste diskussioner.

I denne artikel beskrives det, hvordan du opretter, redigerer, uploader og validerer robots.txt-filen for hvert domæne, der hostes i Microsoft Dynamics 365 Commerce.

Uventet eller urettet gennemgang af dit websted af søgemaskiner kan forårsage en stor mængde "404 Side ikke fundet"-fejl. Disse fejl kan påvirke ydeevnen, da webstedet reagerer på alle anmodninger om sider, der ikke eksisterer. Du kan løse problemet ved at sikre, at dit domæne altid har en up-to-dato og en gyldig robots.txt fil, så webcrawlere får besked om kun at søge efter relevante sider på dit websted.

Gælder for

Denne artikel gælder for følgende konfigurationer:

  • Version: Commerce 10.0.16 eller nyere
  • Komponent: Virksomhed til forbruger (B2C) eller virksomhed til virksomhed (B2B)
  • Funktionsområde: Ydeevne for handelswebsteder

Forudsætninger

  • Du er systemadministrator i din Commerce-forekomst.

  • Du har oprettet en robots.txt fil på computeren eller downloadet en kopi, afhængigt af din situation:

Fuldførelsestrin

Følg disse trin for at redigere og uploade en robots.txt fil:

  1. Åbn din lokale kopi af robots.txt-filen.
  2. Rediger filen, så den indeholder alle Tillad ikke-poster i eksempelfilen robots.txt, der følger efter.
  3. Bekræft, at filen er korrekt formateret i henhold til standard for udelukkelse af robotter.
  4. Overfør filen ved at følge vejledningen i Overfør en robots.txt-fil.

Eksempel på robots.txt-filindhold

User-agent: *
Disallow: /signin
Disallow: /cart
Disallow: /*refiners=
Disallow: /*sorting=
Disallow: /*search?
Disallow: /*search=
Disallow: /*.woff
Disallow: /*.woff2
Disallow: /*skip=

Valider

Brug følgende metode til at validere, at filen robots.txt er tilføjet:

  • Beskrivelse eller formål: Bekræft, at din robots.txt-fil er tilgængelig for dit domæne.
  • Trin, der skal køres: I en webbrowser skal du åbne siden på <dit_domæne>/robots.txt.
  • Afleveringsresultat: Du kan få vist din robots.txt fil.

Note

Hvis du tester fra et internt Commerce-genereret domæne (.dynamics365commerce.ms), skal du tilføje forespørgselsparameteren ?domain= for at se dit overførte robots.txt indhold. Eksempel: https://<e-commerce-tenant-name>.dynamics365commerce.ms/robots.txt?domain=<your-custom-domain>. Uden denne parameter returnerer interne domæner et svar af typen Afvis alle. Du kan få flere oplysninger om commerce-genererede URL-adresser under Url-adresser, der er genereret af Commerce. Du kan få oplysninger om, hvordan robots.txt filer fungerer sammen med domæner, under Sådan fungerer robots.txt med forskellige domænetyper.

Yderligere ressourcer

Administrere robots.txt-filer

Systemadministratorrolle