Sarah tt Posted July 18, 2016 Share Posted July 18, 2016 Bonjour à tous Voilà je suis assez novice dans ce domaine, mais pour améliorer mon référencement plusieurs site d’analyse SEO me conseil de placer "un fichier robots.txt, à placer à la racine d'un site web" Cela fait plusieurs heures que je tourne vire et surtout chavire Je ne trouve pas la manip. Pourriez vous me donner un coup de main ? Merci d'avance à tous . Sarah Link to comment Share on other sites More sharing options...
Oron Posted July 18, 2016 Share Posted July 18, 2016 Bonjour Améliorez le référencement ? le robots.txt est normalement le fichier lu par google boot et d'autre boot pour savoir quel url on ne veut pas référencer. Mais tous les crawlers ne respectent pas. Par contre le sitemap lui aide à améliorer le référencement, liste des url que vous souhaitez soumettre et quelle soit visiter régulièrement par le crawler si vous faites des mises à jours. Pour mettre un fichier robots.txt sur le Cloud créer un accès FTP dans votre compte Cloud, puis à l'aide de filezilla ou autre vous allez sur votre ftp et transférer le robots.txt bien remplis à la racine du site. Le robots.txt vous pouvez le créer avec le bloc-note sous windows ou notepad et enregistrer, pour l'encodage vous pouvez choisir UTF-8 1 Link to comment Share on other sites More sharing options...
Johann Posted July 18, 2016 Share Posted July 18, 2016 (edited) Je corrige un peu ton message, Oron. Le fichier robots.txt ne sert pas à dire quelles URLs on ne veut pas référencer, mais quelle URLs on ne veut pas crawler ! Pour bcp, ça veut dire la même chose, mais si une URL est déjà indexée, tu auras beau mettre un disallow dans le robots.txt, elle ne va pas se désindexer Et sans vouloir faire de mal aux mouches, c'est pareil pour le sitemap. Il ne sert pas à référencer, mais à indiquer quelles pages crawler. Comme si Google ne pouvait pas se débrouiller tout seul pour trouver toutes les URLs d'un site. Donc utilité très très limitée, sauf très gros sites, ou sites mal conçus (avec des profondeurs de pages importantes). Perso, j'utilise surtout le sitemap pour désindexer des pages, c'est pour dire Edited July 18, 2016 by Johann (see edit history) 1 Link to comment Share on other sites More sharing options...
Sarah tt Posted July 18, 2016 Author Share Posted July 18, 2016 Super merci pour vos réponses j'ai deux questions du coup : 1) le sitemap je le fais comment et je le place où ? 2) le robot je fait comment justement pour désindexer des pages ? par exemple j'ai un ensemble de page indexées avec l'adresse comme celle ci http://atelier-sarah-aime.com/bracelets-enfants/169-bracelet-enfant-jade.html?live_configurator_token Il me semble que c'est le module de Configurateur de thème avancé qui me génère ces pages Merci pour votre aide Link to comment Share on other sites More sharing options...
Johann Posted July 18, 2016 Share Posted July 18, 2016 pour le sitemap, il y a un module ps qui permet de le générer. tu peux aussi générer un fichier texte tout simple avec une URL par ligne. Après, il faut aller dans la Google Search Console, et ajouter ce sitemap pour désindexer des pages, il n'y a pas 36 solutions, il faut une balise "noindex" dans la page (pas possible en natif sur PS) et attendre que Google repasse lire la page (donc qu'il puisse la crawler, donc que l'url ne soit pas bloquée par le robots.txt) 1 Link to comment Share on other sites More sharing options...
Sarah tt Posted July 19, 2016 Author Share Posted July 19, 2016 Merci beaucoup pour ces reponses Link to comment Share on other sites More sharing options...
Recommended Posts