Jump to content

Duplicate content et fichier Robots


Recommended Posts

Bonjour,

Pour éviter les problème de duplicate content, en particulier lorsque l'url rewriting est activé, j'ai vu sur un site une recommendation qui me semble utile, mais j'aurais avoir votre avis sur les risques éventuels.

Voici les lignes que je vais rajouter:

Disallow: /*category.php?id_category=
Disallow: /*product.php?id_product=
Disallow: /*manufacturer.php?
Disallow: /*supplier.php?


Et aussi, pour les categories , lorsque plusieurs pages existent pour une meme categorie, cela genere un duplicate content:
Disallow: /*?p=2$
Disallow: /*?p=3$
Disallow: /*?p=4$
Disallow: /*?p=5$
Disallow: /*?p=6$
Disallow: /*?p=7$
Disallow: /*?p=8$
Disallow: /*?p=9$

Voyez vous une contrindication à mettre ces lignes dans robots.txt

Link to comment
Share on other sites

?p=2 ou ?p=3 n'est à proprement dit pas un duplicate content, c'est une navigation paginée, à mon avis tu t'emmerderas plus à t'emmêler les pattes dans le fichier robot qu'autre chose.
il y a duplicate content si deux urls différente renvoient vers le même contenu strictement.
Si tu disallowes un répertoire dans le fichier robots il faut s'assurer que ce même répertoire est inaccessible par tout autre moyen.

Link to comment
Share on other sites

Merci pour la réponse et ce conseil judicieux pour les navigations paginées, maisdans mon cas Google considère les navigations paginées comme duplicate content, le titre, metadata et keywords restant les mêmes.

Pensez vous que cette expression fonctionnerait pour le reférencement des produits, et éviter le réferencement de toutes les urls du type product.php?id_product= et privilégier les urls réecrites ?


Disallow: /*product.php?id_product=


Encore merci
Link to comment
Share on other sites

Guest
This topic is now closed to further replies.
×
×
  • Create New...