Robots.txt est un fichier qui indique aux robots des moteurs de recherche les pages ou les sections d'un site web auxquelles ils doivent ou ne doivent pas accéder. Le fichier se trouve dans le répertoire racine d'un site web et suit un format standard.
Les principaux moteurs de recherche, tels que Google, Bing et Yahoo, reconnaissent et respectent les directives spécifiées dans le fichier Robots.txt.
L'existence d'un fichier Robots.txt n'est pas obligatoire, mais c'est une bonne pratique pour vous aider à gérer la façon dont les moteurs de recherche interagissent avec votre site Web.
Il se compose de deux parties essentielles : les agents utilisateurs et les directives.
User-agents: Cette ligne indique à quels robots web le fichier s'applique. Par exemple,
User-agent : Googlebot
Cela signifie que le fichier ne s'applique qu'au robot web Googlebot. Le symbole * peut être utilisé pour représenter tous les robots web.
Directives:Cette ligne indique les parties du site Web auxquelles les robots Web ne doivent pas accéder.
Vous pouvez consulter Google Search Central pour en savoir plus sur comment écrire un fichier Robots.txt.
Une fois que vous l'avez écrit, accédez à la section suivante pour l'ajouter.
Venez dans l'onglet Paramètresde votre tableau de bord
Naviguez vers le sous-onglet Paramètres généraux
Scroll down to the bottom of the page to access the Robots.txt.
Insérez dans la case ci-dessous et cliquez sur le bouton Save changes.
Si vous avez des questions sur les coupons, les réductions ou quoi que ce soit d'autre, envoyez-nous un email à [email protected] ou cliquez sur l'icône bleue ci-dessous pour chatter 😊
©2024 - Design & Development by Uteach after uteach text
All copyright reserved