Jump to content

Duplicate content


Recommended Posts

Bonjour à tous
Je me permets de vous contacter pour un problème de duplicate content (enfin je crois)
Nous sommes en version 1.2.4.0

Nous avons à peu prés 1300 références publiées sur notre site et dans la requette site:www.vetements-vente.com google nous renvoit 14500 résultats il me semble que nous avons une dilution du page rank énorme
Comment faire pour que google scanne que les bonnes pages

nous avons bien un module d'urls canoniques avec URL canonique v1.3
et nous générons également un sitemap avec Google sitemap v1.4

Notre site est vetements-vente.com

D'avance merci

Link to comment
Share on other sites

Il faut dans ce cas que vous mettiez en place un fichier robots.txt

tant que vous y êtes il serait bien aussi de mettre un fichier sitemap.xml ;-)
car celui que vous indiquez n'est absolument pas repéré.


qu'entendez vous par absolument pas repéré ?
Link to comment
Share on other sites

Si je comprends bien il faut que je saisisse les 10000 pages à la main que je ne veux pas qu'il scanne dans le fichier robot.txt ???
dans ce cas la j'ai pas fini !!
tu ne connaitrais pas des commandes qui permetraient d'automatiser un minimum ?

Link to comment
Share on other sites

nnnooooooooooooooooonnn :lol:

de 2 choses l'une si tu ne veux pas qu'il scanne tes 10.000 pages il n'est pas necessaire de les inscrire toutes.
le plus simple et que tu les mettent dans un repertoire que tu appelera "pagesout" (c'est un exemple...) et dans le fichier robots.txt il te suffira de mettre :

Disallow: /pagesout/



et ainsi les robots ne scanneront pas ce repertoire

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.
×
×
  • Create New...