Jump to content

SITEMAP / ROBOTS.TXT et Multiboutique


Recommended Posts

Bonjour à tous,

 

Tout nouveau sur cette communauté, je m'adresse à vous pour un problème de paramétrage de deux boutiques en ligne Prestashop en multi-boutique.

 

Je souhaite indiquer un index de sitemap pour la boutique 1 et la boutique 2 dans le fichier .robots.txt

Par contre, vu que les boutiques sont installées dans le même dossier, il n'y a qu'un seul fichier robots pour le domain1.fr et domain2.fr (domaines complètements différents).

 

Dans l'idéal, il faudrait deux fichier robots comme ci-dessous :

 

Fichier 1 : domaine1.fr/robots.txt - SITEMAP : https://www.domaine1.fr/sitemap_index.xml

 

Fichier 2 : domaine2.fr/robots.txt - SITEMAP : https://www.domaine2.fr/sitemap_index.xml

 

 

Merci d'avance,

Link to comment
Share on other sites

Bonjour,

indiquer l'url de tes sitemaps dans le fichier robots.txt est un non-sens, pour ne pas dire une belle connerie : le fichier robots.txt étant normé, n'importe qui pourra le lire, et donc y trouver tes sitemaps et connaitre toutes tes URLs. Un concurrent pourrait ainsi facilement récupérer toutes tes URLs, ce qui n'est pas nécessaire !

Indique donc plutot les urls de tes sitemaps (que tu peux d'ailleurs nommer comme tu veux, toujours pour éviter une "fuite") dans la Google Search Console

  • Like 1
Link to comment
Share on other sites

Bonjour,

indiquer l'url de tes sitemaps dans le fichier robots.txt est un non-sens, pour ne pas dire une belle connerie : le fichier robots.txt étant normé, n'importe qui pourra le lire, et donc y trouver tes sitemaps et connaitre toutes tes URLs. Un concurrent pourrait ainsi facilement récupérer toutes tes URLs, ce qui n'est pas nécessaire !

Indique donc plutot les urls de tes sitemaps (que tu peux d'ailleurs nommer comme tu veux, toujours pour éviter une "fuite") dans la Google Search Console

 

 

Johann,

Merci de ta réponse,

 

Nous avons d'ores et déjà renseigné les sitemaps dans chaque compte de la Search Console.

Je comprend ton point de vue pour les concurrents mais n'importe quel outil de crawl est capable de sortir une liste de toutes les URLs (Semrush, Ahrefs, Site Analyzer, and cie...).

C'est d'ailleurs SiteAnalyzer qui conseille de rajouter le SITEMAP dans le fichier robots.txt.

 

post-1130305-0-98128600-1502983458_thumb.jpeg

 

Merci pour tes conseils !  :)

Edited by LewDev (see edit history)
Link to comment
Share on other sites

Je suis d'accord avec toi, mais tu peux surtout utiliser les sitemaps pour indiquer tes pages les plus stratégiques, ce que les autres n'ont pas besoin de connaître.

J'ajoute que Googlebot est pas mal non plus comme crawler :) dès lors, pourquoi fournir un sitemap ? Sauf si tu as des pages très profondes (donc un problème de conception ou d'organisation), Google n'a pas besoin d'un sitemap.

Mon camarade Olivier Duffez est du même avis :

http://www.webrankinfo.com/dossiers/sitemaps/tutoriel-fichier-sitemap

Edited by Johann (see edit history)
Link to comment
Share on other sites

  • 3 years later...

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...