Jump to content

[RESOLU] Duplicate content sur TRI Produits et Ordre des produits


Recommended Posts

Salut
je viens de me rendre compte sur google ( outils Webmaster) qu'il me compte du duplicate content sur le Tri des produits (moins cher, plus cher par ordre alphabétique)

/43-livres

43-livres?orderby=position&orderway=desc

43-livres?orderby=price&orderway=desc



j'ai bien évidemment cherché sur le forum ,mais je n'ai rien trouvé. Quelqu'un a t'il déjà rencontré le même problème?
bye Yannnick

Link to comment
Share on other sites

Dans Google Webmaster Tools : Configuration du site -> Paramètres -> Traitement des paramètres

Tu peux ajouter des paramètres à ignorer par Google comme :
orderway
orderby
page_id
cat_id
...

j'espère que ça peux t'aider ;)

Link to comment
Share on other sites

Guest Roger-C

Le mieux dans ce genre de cas en général serait de référence une page à la fois et ignorer les autres. C'est effectivement source de duplicate puisque c'est le même contenu avec plusieurs URLs.

Link to comment
Share on other sites

Bonsoir

Je ne comprends pas refexpert ce que vous dites? Enfaite les pages se sont référencées toute seule avec google ou la sitemap. En regardant les logs c’est googlebot

Faudrais t'il bloquer ces URL avec le robot.txt?

Merci de m'éclaircir
Yannick

Link to comment
Share on other sites

Guest Roger-C

il faudrait à mon avis dé-référencer la ou les pages en causes. C'est à dire supprimer la/les pages de l'index Google. C'est facilement faisable dans Google webmaster tools.

Cordialement.

Link to comment
Share on other sites

Salut merci pour vos informations

Les problèmes s'aggravent je pense ne pas être le seul avec ses problèmes bizarres !!! beaucoup trop de META description en double et Balises title en double à cause

?orderby=name&orderway=asc 
?orderby=position&orderway=desc 
?orderby=price&orderway=desc 



Si je supprime les Urls je pense que googlebot à un moment donné va me refaire la même chose?

Il faudrait pas un petit bout de code afin d'avoir quelque chose de vraiment efficace mon site contient plus de 1000 liens si je dois tous les entrer en x par 4 le contenue dupliqué je ne suis pas sortie de l'auberge.

Je vois pas trop comment je vais faire entrer plus de 4000 milles liens à supprimer dans google bonjours les dégâts
Yannick

21554_hxhEw7jRtPM2Cc46GAvh_t

Link to comment
Share on other sites

Bonsoir

Je reviens un petit peu à la charge. :-) J'ai toujours se problème avec des liens référencer x par 5 avec

?orderby=price&orderway=desc

?orderby=name&orderway=desc 

?orderby=name&orderway=desc 

?orderby=price&orderway=desc



Google ne veut pas les supprimer puisque apparemment elles ne renvoient pas un 404 puisqu’elles existent.
D'où pourrait venir le problème ? dans le fichier robots.txt j'ai bien les

Disallow: /pagination.php

Disallow: /product-sort.php



dans le code sur la page catégorie on voit bien la structure des liens

<!-- Sort products -->

   <form id="productsSortForm" action="http://www.site.fr/72-geode-d-agates">



--
le moins cher
le plus cher
de A à Z

de Z à A
produits en stock

Tri

</form>
<!-- /Sort products -->



Merci pour votre aide
Bye
Yannick

Link to comment
Share on other sites

Bonjour
Merci Melki-Tsedeq.

Avez-vous testé cette technique Prestashop
ben non...

Je viens de le contacter par Tel, malheureusement il n'était pas la. Alors je lui est envoyer un mail afin qu'il me résous le problème.

Je n’ai pas dû me lever du bon pied ce matin :-S et te remercie pour le lien.
Yannick
Link to comment
Share on other sites

Bonjour


Je suis désolé, je suis sur Paris toute la semaine et donc très peu disponible :) (de manière exceptionnelle même si j'avoue qu'habituellement je suis relativement souvent injoignable au tél...)

Concernant votre problème, la meilleure solution consiste en effet à mettre en oeuvre un certain nombre de choses parallèlement les unes aux autres de manière à limiter au maximum le DC :
* détecter les pages avec paramètres d'URL
* les placer en "noindex,follow"
* préciser une URL canonique qui elle, ne tiendra pas compte des paramètres (à ce propos, le module URL canonique de la version 1.2.5 semble corrigé, car la première version n'était pas top...)

On peut faire un certain nombre d'autres opérations comme contrôler les versions réécrites des URL en temps réel, en interdire les versions non réécrites, etc.

Je répondrai à votre mail en soirée ;-)

Bien cordialement,


Cédric

Link to comment
Share on other sites

Je passe le post en résolu, car apparemment mon problème est résolu.
Après avoir fait moi même quelques rectifications et avec l'aide de se post, mes liens en duplicate content sont passé d'une centaine à 7 vers 3heures du matin. ( En + de deux semaines )

Les modifications que j'ai faites c'est d'avoir d'abord suivie les conseils de Hugo06, mais j'avais déjà fait les modifications sur le module canonial URL et j’ai donc adapté cette méthode la, qui s'avère efficace pour ceux qui serait en 1.2.5 avec le même problème.
http://www.prestashop.com/forums/viewthread/26578/general_discussion/canonical_url_incorrect
bye
Yannick

Link to comment
Share on other sites

de touyte manière il y a un élèment essentiel a prendre en compte....
ce n'est pas parce que l'on fait une modification important que les moteurs de recherche les modifieront insinné (tout de suite).

il y a quand même un peu d'attente a avoir

cela étant bien heureux que ton problème soit résolus

Link to comment
Share on other sites

Super post, intéressant.
J'ai moi même un soucie similaire avec mes balise meta et title en double car google me compte celle de la page produit mais aussi celle de l'envoie à un ami.

Pour chaque produit il me rajoute l'url: /modules/sendtoafriend/sendtoafriend-form.php?id_product=XX

J'ai tout simplement modifié mon fichier robot en ajoutant la ligne Disallow: /modules/

Vous pensez que sa réglera le problème?

Link to comment
Share on other sites

Salut tous le monde !

bon, depuis le 24 mars j'ai remarqué une baisse de visite sur le site assez importante .
Mon 1er Réflexe à biensur été de vérifier mon indexation de mots clefs et je me suis appercu de cette manière que google à trouvé tout autant de duplicat que vous et pour les meme raison .

En l'absence de post sur le forum , j'ai pris comme action de tout traiter à la main , ligne par ligne ...

des redirections 301 pour les produits et dans le robot text des disallow pour les pages concernées par des paramètres .
Chaque jour je surveille google parce que chaque jours il en trouve de nouvelle et encore je bloque les pages .

A ce jour j'ai supprimé pas loin de 600 pages dans google ... toute les une apres les autres , jour apres jour ...
C'est long mais efficace !!!

Je vais tout de mme tester vos methodes , mais le fait de mettre ceci dans le robot.txt permet aussi de donner les instructions aux autres moteurs de recherche .

Enfin si toute fois quelqu'un à un code miracle , qu'il se fasse connaitre ;)

Link to comment
Share on other sites

Salut


Pour ceux qui aurais du mal à comprendre, il faut tous simplement descendre les includes des fichiers suivant.
product.php et catégorie.php ou la variable $ rewrited_url ne ce trouvais pas forcement au bon endroit dans le code source de vos pages.

premièrement sur le fichier categorie.php ligne 13 ou 14 mettez en commentaire

 include(dirname(__FILE__).'/header.php');
include(dirname(__FILE__).'/product-sort.php');



Ce qui donne

// include(dirname(__FILE__).'/header.php');
// include(dirname(__FILE__).'/product-sort.php');



descendé ensuite vers la ligne 72 et mettez ces deux même lignes que vous avez mis plus haut en commentaire

 include(dirname(__FILE__).'/header.php');
include(dirname(__FILE__).'/product-sort.php');



Avant le code

$smarty->assign(array(
'allow_oosp' => intval(Configuration::get('PS_ORDER_OUT_OF_STOCK')),
'suppliers' => Supplier::getSuppliers(),
'errors' => $errors));



Ensuite sur le fichier product.php

cherché la ligne

 include_once(dirname(__FILE__).'/header.php');



la mettre en commentaire, ce qui donne

// include_once(dirname(__FILE__).'/header.php');



Remettre cette même ligne sur la ligne 300 ou 301

include_once(dirname(__FILE__).'/header.php');



Avant le code

$smarty->assign(array(
'ENT_NOQUOTES' => ENT_NOQUOTES,
'outOfStockAllowed' => intval(Configuration::get('PS_ORDER_OUT_OF_STOCK')),
'errors' => $errors,
'categories' => Category::getHomeCategories(intval($cookie->id_lang)),
'have_image' => Product::getCover(intval(Tools::getValue('id_product'))),
'display_qties' => intval(Configuration::get('PS_DISPLAY_QTIES')),
'display_ht' => !Tax::excludeTaxeOption()));



Ensuite sur le fichier canonicalurl.php qui ce trouve dans le dossier modules et le dossier canonicalurl

chercher cette ligne de code ligne 68 ou 69

 $smarty->assign('canonical_url', $protocol.$canonicalUrl.$rewrited_url);



et la mettre en commentaire . ligne avant le

else


// $smarty->assign('canonical_url', $protocol.$canonicalUrl.$rewrited_url);



C'est fini ;-)

Attention avant de faire les modifications!!! faite une copie de vos fichier je ne serais être tenue responsable en cas d'erreur de votre part
Yannick

Link to comment
Share on other sites

Ok super réponse détaillée, donc en appliquant ton hack on peut se défaire des balises en doublons dans webmaster tools?
J'ai aussi vu que les url style "/search.php?tag=XXX" ramène des doublons dans google, ta solution élimine cela aussi?

Merci pour ton aide en tous cas.

Link to comment
Share on other sites

Salut

Effectivement, mais cela ne s'applique que pour les attribues des tris sur les produits "plus cher", "moins cher", de "A à Z" etc., etc.
Pour les tags je ne me suis pas pencher dessus, puisque je ne les utilise pas.

?orderby=name&orderway=asc 
?orderby=position&orderway=desc 
?orderby=price&orderway=desc 


voila
Yannick

Link to comment
Share on other sites

Dans Google Webmaster Tools : Configuration du site -> Paramètres -> Traitement des paramètres

Tu peux ajouter des paramètres à ignorer par Google comme :
orderway
orderby
page_id
cat_id
...

j'espère que ça peux t'aider ;)


Hello
J'ai fait cette modif dans les paramètres de google mais ça ne semble pas avoir d'effet.
Question con, mais c'est bien "ignorer" qu'il faut appliquer à ces pages ?

La prise en compte par Google est très longue peut-être ?
Link to comment
Share on other sites

les paramettres ne sont pas identique sur toute les boutiques en fonction de la configuration . Normalement juste en dessous tu dois avoir "paramettre trouvés" un truc dans le genre, tu regarde ce que t'as trouver google et tu l'applique ... de toute facon , ca n'as pas d'effet immediat et je ne suis mme pas sur que ce soit fiable à 100% D'ailleur Google l'explique tres bien dans son "aide"

Link to comment
Share on other sites

je n'y comprends plus rien !!!

le caninocal fonctionnais tres bien hier ...
Ce matin je test , je me retrouve en ligne canicocal avec : http:www.monsite.comhttp:www.monsite.com/xx_macategorie....

je fait le modifs indiquée, ca ne fonctionne pas .

je supprime les lignes et recharge le tout idem tjs meme probleme .

je decide de supprimer d'autres modifs que j'avais fait (donc me retrouve en config d'origine) , je recharge tjs mme probleme .

Je remet mes modifs, sans refaire les modifs indiquées, donc en l'etat avant de regarder ce matin ( je rappel que ce matin ca delirais )
et là , plus de probleme alors que je me retrouve dans la mme config que si je n'avais rien toucher ce matin ... ????

Link to comment
Share on other sites

les paramettres ne sont pas identique sur toute les boutiques en fonction de la configuration . Normalement juste en dessous tu dois avoir "paramettre trouvés" un truc dans le genre, tu regarde ce que t'as trouver google et tu l'applique ... de toute facon , ca n'as pas d'effet immediat et je ne suis mme pas sur que ce soit fiable à 100% D'ailleur Google l'explique tres bien dans son "aide"


Je n'arrive toutefois pas à comprendre, avec l'aide de Google, si pour chaque paramètre "orderby" et "orderway", je dois choisir "prendre en compte" ou "ignorer"...
Link to comment
Share on other sites

Merci
Mais justement, c'est l'aide de Google qui n'est pas claire à mes yeux : Google propose une suggestion et demande un choix. Faut-il ignorer la suggestion (et du coup, prendre en compte le paramètre) ou ignorer le paramètre (et du coup, ignorer la suggestion)....

Bref, je me doutais un peu que la bonne sélection était "ignorer", mais la lecture de l'aide google m'a induit en erreur.

Merci !

Link to comment
Share on other sites

  • 2 weeks later...

Bonjour, après avoir bien suivi ce topic j'ai réduit mes balises en doubles mais il m'en reste encore 14, Voir image ci dessous.

J'ai bien mis les paramètres "orderby et orderway" sur ignorer mais cela me fait encore des doublons, pareil pour le paramètre "p".

Que faire de plus pour éviter ces balises en doubles?

Merci d'avance.

22982_l9hFfb1mWMMy4BzW1nVy_t

22983_DBAhZYvlHkxrkQeGhCzG_t

Link to comment
Share on other sites

T'inquiete pas , google en se mettant a jour, il va encore en rajouter ... Si tu as vraiment corriger le probleme , petit a petit ca va diminuer ...
et pour les pages non concernées par ce code bloque les par rabot.txt

Link to comment
Share on other sites

  • 3 months later...
  • 2 weeks later...

Cette solution ne change pas uniquement les metas mais aussi les titres.
Ensuite les produits apparaissent dans un ordre différent dans chaque cas donc on ne peux pas parler veritablement de contenu duplique.

De plus le duplicate content interne a un site (hors titres et metas) est plus une legende qu'autre chose. Si Google considere que deux pages d'un meme site avec des titres et des metas differents ont des contenus similaires il va simplement choisir une des deux. Le site ne sera pas panalise pour autant. Cela a meme ete precise il n'y a pas si lontemps sur le blog de Google.

Link to comment
Share on other sites

  • 2 weeks later...
Donc le duplicate pour un même site.. (comme je m'en suis douté) ne sont véritablement pénalisant ?


Pour ma part je ne parlerais pas de "pénalisation" stricto sensus mais d'un critère entrant en compte dans la notation des pages et leur positionnement.

META dupliquées (en tout ou partie) = moins bonne place
Contenu dupliqué = moins bonne place (de manière beaucoup plus marquée apparemment)


Google s'est toujours défendu de pénaliser les sites sur le duplicate content mais en pratique le constat est quand même nettement en faveur d'une pénalité réelle. Si les annuairistes demandent des descriptions uniques depuis quelques temps, ce n'est pas par hasard (je connais certains webmasters qui ont perdu jusqu'à 90% de leur trafic suite à la MAJ de l'algo Google appelée "Mayday"... Trafic progressivement retrouvé après éradication du DC)
Link to comment
Share on other sites

si j'ai 1 pages catégorie, et 2 autres qui sont des tris de la même page donc risque de duplicate , la page principale sera-t-elle pénalisée? les 2 autres sont qui sont des variantes de la première seront pénalisée mais pas première.
Mais comme ces 3 pages parlent de la même chose, je ne pense pas qu'il y ait un problème.

Link to comment
Share on other sites

Même s'il n'y a pas pénalisation, il y a "aberration" d'avoir trois pages ayant le même contenu (fut-il ordonné de manière différente) et qui donc se font "concurrence".

Et ne pas espérer classer ces trois pages dans Google dans ces conditions :)

Il y a TOUT à gagner à maîtriser finement la notion de duplicate content.

Link to comment
Share on other sites

  • 1 month later...

De mon côté j'observe exactement le même problème pour l'ajout d'une nouvelle catégorie alors que j'avais précédemment bien dit à Webmaster tools d'ignorer tous ces paramètres... 2 mois plus tard, ça n'a pas l'air d'être pris en compte :
http://www.google.fr/webhp?hl=fr#sclient=psy&hl=fr&site=webhp&q=site:www.bracelets-homme.com/8-power-balance&aq=f&aqi;=&aql;=&oq;=&gs;_rfai=&pbx=1&fp=d4d0819aa0bd6296

Si Google indexe toutes ces pages, c'est qu'il rencontre des liens "a href" avec toutes les combinaisons de chaque paramètre ? Pourquoi ne pas ajouter l'attribut rel à "noindex ou noffolow" ?

Concernant les liens de Tri, on retrouve dans le fichier product-sort.tpl le code javascript

onchange="document.location.href = $(this).val();"

avec les valeurs :

-- 


Comment rajouter l'attribut rel=nofollow dans ce code javascript ? En dur, à la fin de l'URL dans le value= ?

Quant aux nombres de produits par page (paramètre n), c'est dans le fichier pagination.tpl que ça se passe, il y a plusieurs "a href" mais il faudrait laisser le dofollow sur les liens vers les pages2, pages3 ... et ajouter le nofollow sur les liens avec le paramètre n (pour les catégories qui n'ont qu'une seule page) de produits ?

De plus, il y a le même problème avec le module d'url canonique, puisque dans la page de ma catégorie dont l'URL de base est :
http://www.bracelets-homme.com/8-power-balance
il y a :

<link rel="canonical" href="http://www.bracelets-homme.com/8-power-balance?n=20&orderby=quantity&orderway=desc&id_category=8" />



Qu'en pensez-vous ?
Merci.

Link to comment
Share on other sites

Guest Roger-C

Bonsoir,

je suis généralement d'avis avec Cédric Girard. Il faut à tout prix éviter le duplicate. Et puis à quoi ça sert d'avoir plusieurs page presque identiques référencées dans les moteurs de recherche ?? Même s'il éxistent des solutions pour changer les titres, là n'est pas la question. Votre catalogue à 400 produits, et bien ce serait anormal de se retrouver avec 2000 urls....

La logique voudrait que en dehors des pages produits, vous ayez en plus les pages catégories. C'est cela le contenu du site et rien d'autre. Se retrouver avec des pages supplémentaires avec :

orderby=name&orderway=asc
orderby=position&orderway=desc
orderby=price&orderway=desc
orderby=quantity&orderway=desc

est néfaste pour le positionnement de votre boutique.

Il faut absolument mettre en place une solution pour éviter de référencer ces pages. En plus d'éviter du duplicate (car quoi qu'on en dise, le risque existe), on a un fichier sitemap moins important ce qui n'est pas rien.

Pourquoi pas penser à configurer le fichier Robots.txt pour que les robots ne suivent pas ces liens avec un "Disallow". J'attends vos avis dans ce sens.

Cordialement.

Link to comment
Share on other sites

Pour ma part le problème est (je pense) résolu en grande partie résolu.

Le plus gros du problème résidait dans le fait que google indexait automatiquement le produit dans l'accueil et dans la catégorie choisie, maintenant, je ne vois plus ça donc parfait.

Merci.

Link to comment
Share on other sites

Guest Roger-C
Pour ma part le problème est (je pense) résolu en grande partie résolu.

Le plus gros du problème résidait dans le fait que google indexait automatiquement le produit dans l'accueil et dans la catégorie choisie, maintenant, je ne vois plus ça donc parfait.

Merci.


Avez vous dans Google Webmaster Tools les "pages avec des balises en double"? A mon avis c'est ce paramètre qu'il faut surveiller.
Link to comment
Share on other sites

Bonjour,

C'est un peu le fouillis dans ce topic....

Je n'arrive plus a trouver la bonne solution....
Que faut-il exactement faire????

En gros dans les paramètres google est-il nécessaire de "laisser google decider" ou d'"ignorer" pour

-orderway

-orderby


Peut-on les "ignorer" ou dot-on absolument "laisser google decider"??? N' y a t'il aucune conséquence????

Que fait-on de :

-n

-P

Doit-on les ignorer aussi ???

J'ai moi même 423 duplicate est-ce que google penalise vraiment ou pas??

Link to comment
Share on other sites

Guest Roger-C

Bonjour,

vous n'avez 400 duplicate ? Ce n'est rien par rapport à certains qui en ont 4 X le nombre de "pages produits". Je vous laisse donc imaginer les dagats !

Il est clair qu'il ne faut pas laisser Google décider. Je dis juste qu'il faut surveiller une donnée essentielle que Google vous fournit gratuitement. Si vous estimez que l problème est réglé et Google vous dit le contraire c'est votre problème persiste. Je suis en train de discuter avec un développeur anglophone sur ce forum : http://www.prestashop.com/forums/viewthread/74380/#323897 pour trouver la meilleure solution pour empêcher aux moteurs de recherche d'indexer toutes les pages avec les paramètres de tri :

- prices-drop.php – new-products.php – best-sales.php – category.php – search.php

Sois patient, je pense qu'il est ressortira quelque chose de cette discussion. Promis !

Link to comment
Share on other sites

Bonjour,

vous n'avez 400 duplicate ? Ce n'est rien par rapport à certains qui en ont 4 X le nombre de "pages produits". Je vous laisse donc imaginer les dagats !

Il est clair qu'il ne faut pas laisser Google décider. Je dis juste qu'il faut surveiller une donnée essentielle que Google vous fournit gratuitement. Si vous estimez que l problème est réglé et Google vous dit le contraire c'est votre problème persiste. Je suis en train de discuter avec un développeur anglophone sur ce forum : http://www.prestashop.com/forums/viewthread/74380/#323897 pour trouver la meilleure solution pour empêcher aux moteurs de recherche d'indexer toutes les pages avec les paramètres de tri :

- prices-drop.php – new-products.php – best-sales.php – category.php – search.php

Sois patient, je pense qu'il est ressortira quelque chose de cette discussion. Promis !


Merci pour la réponse, j'ai lu le post que vous échangez avec Tomer de presto-changeo, et le SEO FIX qui'il a donné http://www.prestashop.com/forums/viewthread/74380/#323897

Je suis également ce post de prés.

Dailleurs je l'ai appliqué ainsi que d'autres TIPS qu'il donne sur son site http://www.presto-changeo.com/

Grace a lui j'ai pu supprimer la moitié de mes duplicates déjà mais je me demander seulement si google pénalisait vraiment et si je devais ignorer

-orderby

-orderway

-p

-n

Car dans mes paramètres webmaster tools j'ai tous laisser google décider.
Link to comment
Share on other sites

Guest Roger-C

Le duplicate est pénalisé sur l'ensemble du site. Si vous avez 200 pages de contenu "utile et unique" et que vous demandez à Google d'indexer 800 urls et qu'il se rende compte que 75% de ces Urls ont le même contenu, vous êtes forcément pénalisé. Vous ne vous rendez pas compte sur le moment, mais faîtes le ménage et vous verrez que les visiteurs reviennent plus nombreux. C'est une certitude.

Le pire avec ces variables c'est que vous-vous retrouvez avec des centaines de pages avec :

- le même titre;
- la même description;
- et presque le même contenu; excepté que l'ordre change.

Google ne décide de rien. afin presque. Parfois, même si vous lui dites de pas indexer telle ou telle page, il le fait quand même. Finalement c'est tout un travail à faire. Et il n'y a pas que google. yahoo est pire encore. C'est mon avis en tout cas.


Cordialement.

Link to comment
Share on other sites

Le duplicate est pénalisé sur l'ensemble du site. Si vous avez 200 pages de contenu "utile et unique" et que vous demandez à Google d'indexer 800 urls et qu'il se rende compte que 75% de ces Urls ont le même contenu, vous êtes forcément pénalisé. Vous ne vous rendez pas compte sur le moment, mais faîtes le ménage et vous verrez que les visiteurs reviennent plus nombreux. C'est une certitude.

Le pire avec ces variables c'est que vous-vous retrouvez avec des centaines de pages avec :

- le même titre;
- la même description;
- et presque le même contenu; excepté que l'ordre change.

Google ne décide de rien. afin presque. Parfois, même si vous lui dites de pas indexer telle ou telle page, il le fait quand même. Finalement c'est tout un travail à faire. Et il n'y a pas que google. yahoo est pire encore. C'est mon avis en tout cas.


Cordialement.


Ok merci donc je pense que pour le moment je dois attendre des améliorations du SEO FIX de TOMER car déjà le SEO FIX de tomer m'a supprimer la moitié de mes duplicates c'est déjà trés bien grace a lui.

mais je viens de traduire il y a une semaine le site en 8 langues avec le modules de Tomer donc mon sitemap a multiplier les pages par 8.

je crains le pire lorsque google va commencer à les indexé malgrés que j'ai appliquer ses astuces pour fixer le duplicate multi language.

Par ailleurs je vois que tu t'y connais un peu.

As tu une solution à ce problème de balise title mal prise en compte par google sur ma page d'index.
Voir http://www.prestashop.com/forums/viewthread/75853/referencement/conseil_referencement_2eme_etape


Merci pour tout en tous cas.
Link to comment
Share on other sites

  • 3 weeks later...
  • 2 months later...

Je remonte ce sujet uniquement pour donner une éventuelle solution que j'ai mis en place.
En revanche, elle n'ai pas vraiment adaptée aux grosses boutiques ayant de nombreux produits dans chaque catégorie.
Donc, pour éviter le duplicate qui apparaissait dans le webmaster tools de google, ma boutique le permettant car peu de produits, j'ai tout simplement vidé product-sort.tpl et pagination.tpl.

Bien entendu il s'agit là d'une solution radicale, mais que le faible nombre de produits me permet de faire.

Link to comment
Share on other sites

Un petit hack (un include dans le settings.inc.php, par exemple) qui détermine si le user-agent est un robot et qu'une des variables get est orderby ou orderway. Si les 2 conditions sont remplies -> on fait une 301 vers la page sans le orderby et sans le orderway ...

On peut aussi en profiter pour traiter les variables exotiques (qui semblent venir du module stat) du genre "&%3..."

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.
×
×
  • Create New...