Jump to content

Placer un fichier robot.txt


Sarah tt

Recommended Posts

Bonjour à tous 

 

 Voilà je suis assez novice dans ce domaine, mais pour améliorer mon référencement  plusieurs site d’analyse SEO me conseil de placer "un fichier robots.txt, à placer à la racine d'un site web"

 

Cela fait plusieurs heures que je tourne vire et surtout chavire 

 

Je ne trouve pas la manip.

 

 

Pourriez vous me donner un coup de main ? 

 

Merci d'avance à tous .

 

Sarah 

Link to comment
Share on other sites

Bonjour

 

Améliorez le référencement ? le robots.txt est normalement le fichier lu par google boot et d'autre boot pour savoir quel url on ne veut pas référencer.

Mais tous les crawlers ne respectent pas.

 

Par contre le sitemap lui aide à améliorer le référencement, liste des url que vous souhaitez soumettre et quelle soit visiter régulièrement par le crawler si vous faites des mises à jours.

 

Pour mettre un fichier robots.txt sur le Cloud créer un accès FTP dans votre compte Cloud, puis à l'aide de filezilla ou autre vous allez sur votre ftp et transférer le robots.txt bien remplis à la racine du site. Le robots.txt vous pouvez le créer avec le bloc-note sous windows ou notepad et enregistrer, pour l'encodage vous pouvez choisir UTF-8

  • Like 1
Link to comment
Share on other sites

Je corrige un peu ton message, Oron.

 

Le fichier robots.txt ne sert pas à dire quelles URLs on ne veut pas référencer, mais quelle URLs on ne veut pas crawler ! Pour bcp, ça veut dire la même chose, mais si une URL est déjà indexée, tu auras beau mettre un disallow dans le robots.txt, elle ne va pas se désindexer :)

 

Et sans vouloir faire de mal aux mouches, c'est pareil pour le sitemap. Il ne sert pas à référencer, mais à indiquer quelles pages crawler. Comme si Google ne pouvait pas se débrouiller tout seul pour trouver toutes les URLs d'un site. Donc utilité très très limitée, sauf très gros sites, ou sites mal conçus (avec des profondeurs de pages importantes). Perso, j'utilise surtout le sitemap pour désindexer des pages, c'est pour dire :)

Edited by Johann (see edit history)
  • Like 1
Link to comment
Share on other sites

Super merci pour vos réponses j'ai deux questions du coup :

1) le sitemap je le fais comment et je le place où ? 

 

2) le robot je fait comment justement pour désindexer des pages ?

par exemple j'ai un ensemble de page indexées avec l'adresse comme celle ci http://atelier-sarah-aime.com/bracelets-enfants/169-bracelet-enfant-jade.html?live_configurator_token

 

 

Il me semble que c'est le module de Configurateur de thème avancé qui me génère ces pages

 

Merci pour votre aide 

Link to comment
Share on other sites

pour le sitemap, il y a un module ps qui permet de le générer. tu peux aussi générer un fichier texte tout simple avec une URL par ligne. Après, il faut aller dans la Google Search Console, et ajouter ce sitemap

 

pour désindexer des pages, il n'y a pas 36 solutions, il faut une balise "noindex" dans la page (pas possible en natif sur PS) et attendre que Google repasse lire la page (donc qu'il puisse la crawler, donc que l'url ne soit pas bloquée par le robots.txt)

  • Like 1
Link to comment
Share on other sites

×
×
  • Create New...