Jump to content

des centaines de milliers d'url en duplicate


Recommended Posts

Bonjour,

 

Je vous explique mon probleme. Mon site a migré vers prestashop et  c'est la cata en referencement. En lançant xenu je me retrouve avec des centaines d'url en duplicate content. Filtres à facettes, autre?

 

Voici les erreurs : 

 

exemples, des url qui se retrouvent avec des elements du filtre à facette qui parfois ne correspondent même pas à la page.

Imaginons que j'ai un site de vente de fringues et de chaussures.

 

monsite.com/chaussures/type-taillexl

monsite.com/chaussures/type-rouge

 

Mais aussi

 

monsite.com/chaussures/categorie-tshirt

 

des url avec des noms de marques qui n'ont en plus rien à voir avec cette catégorie :

 

monsite.com/chaussures/marque-nike_reeboc

monsite.com/chaussures/marque-nike_reeboc_puma_le coq

 

etc

 

toutes ces url se multiplient à l'infini...

 

Xenu a arrêté de scanner le site à plus de 300 000urls!!! 

Pour un site qui contient 1500 reférences

 

Que faire pour arrêter l'hémorragie? Est ce que dans un premier temps supprimer le filtre à facettes le temps de trouver une solution est une bonne chose.

 

Merci de vos réponses car on s'en sort pas!!

Link to comment
Share on other sites

non justement mon site est completement pénalisé du fait de ce dc en masse. Le probleme ce n'est pas que les déclinaisons.

 

ça me cree des pages entierement vides indexées. 

Genre j'ai 6 url pour une seule et meme catégorie/produits ou marques

 

en plus ça me matche mes pages internes

 

du type je vais avoir dans mon arbo une catégorie chaussure, une catégorie vetement

 

on peut trouver l'url 151-chaussures

151-chaussures-vetements

mais aussi 151-chaussures-vetements-rouge-taille36 etc sauf que là ça renvoie vers des pages vides

 webmaster tools me le signale bien en DC (title double et description double)

Edited by alexmaster (see edit history)
Link to comment
Share on other sites

Bonjour,

 

Vous venez de migrer vers presta, de quelle plateforme venez vous ?

 

Peut être est-ce dû à la façon d'importer vos produits.

 

Vous utilisée la navigation à facettes, l'avez-vous bien configuré ?

 

Avez-vous bien bloqué les robots d'indexation en leur interdisant l'utilisation de la navigation à facettes ?

 

Module/navigation à facettes

 

Mettre sur non tous les "autoriser les robots..."

 

Sinon les robots s’éclatent à tester toutes les combinaisons possibles et là c'est DC à gogo.

Edited by lechapelier (see edit history)
Link to comment
Share on other sites

Bonjour,

je rencontre le même problème. J'ai bien (et ce depuis le début) mis tout à "non" dans le module de navigation à facettes, j'ai même ajouté dans le fichier "robot.txt" la migne suivante :

Disallow: /*selected_filters=

Au cas où..

mais rien n'y fait. Je me retrouve quand même avec les url du type .../fabricant-xxx/taille-xxx/ etc...

 

Je ne vois pas quoi faire de plus!

 

 

vive les 301! au boulot! et vite!!!

Qu'est ce que tu entends par là? Direct en htaccess?

 

Merci

Fabien

Link to comment
Share on other sites

  • 2 weeks later...

Bonjour

 

Je travaille actuellement sur un nouveau site et je me pose des questions quant à la navigation à facettes. Je crains d'avoir les mêmes problèmes d'indexation d'url lors de la mise en ligne.

Je parcours plein de forum, mais je n'ai toujours pas trouvé de solution infaillible.

 

Où en -êtes-vous de vos recherches ?

 

merci

Link to comment
Share on other sites

Bonsoir,

curieusement, il semblerait que la navigation à facettes ne soit pas si "géniale" que ça si vous n'êtes pas rompus aux outils de Google. Je vous renvoie vers un topic de WRI:

http://forum.webrankinfo.com/duplicate-content-navigation-facettes-t166822.html

 

Pour ma part, je ne suis pas développeur et à mon avis je vais devoir refaire toute la catégorisation pour pouvoir me passer du blocklayered.

Si vous avze de meilleures infos, je suis preneur...

 

Fabien

Link to comment
Share on other sites

Bonjour,

vous avez probablement raison Mr Lechapelier... J'ai investigué un petit peu dans les scripts car normalement le module blocklayered gère le "meta="robots" noindex, nofollow" automatiquement et je me suis aperçu qu'il ne fonctionnait pas chez moi ni dans la version 1.4.8.3 ni dans la 1.5.6.0 ce qui permettait donc à GG d'indexer toutes les pages dans toutes les combinaisons possibles. :wacko: :wacko:

 

J'ai donc décider de supprimer ce module (bien avant ma découverte) et de repasser par un système simple de catégorisation. Cependant je me suis amusé et j'ai modifié le fichier FrontController comme suit: ligne 340, j'ai ajouté les deux lignes suivantes

 

            'nobots' => preg_match('/\/.*\/[0-9]+-.*[\?*\/*].*/',$_SERVER['HTTP_HOST'].$_SERVER['REQUEST_URI']) ? true : false,
            'nofollow' => preg_match('/\/.*\/[0-9]+-.*[\?*\/*].*/',$_SERVER['HTTP_HOST'].$_SERVER['REQUEST_URI']) ? true : false

 

 

Attention, je ne suis pas développeur, j'ai tout appris sur le tas, donc si un dev peut valider ça, ce serait mieux.

 

Le but étant de vérifier si dans l'url (réécrite!!) il y a quelque chose après {id_category}-{rewrite} et si oui alors nobots et nofollow sont passé à true. Ces valeurs sont récupérées dans le fichier header.tpl (dans le thème par défaut).

Je reste persuadé qu'il y a mieux mais chez moi cela fonctionne correctement...

 

Fabien

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.
×
×
  • Create New...