Jump to content

Recommended Posts

Bonjour,

 

Je me suis posé des questions sur la génération de tags, principalement le module de tags de Prestashop, et son influence sur le positionnement dans les moteurs. Et j'en appel aux spécialistes...

 

J'ai pu lire à beaucoup d'endroits que les tags généraient du duplicate content, puisqu'ils re-affichaient du contenu (des fiches produits) déjà présents ailleurs sur le site (principalement dans les pages de catégories). Jusque là, on pourrait être d'accord avec ce point de vue. Beaucoup de "référenceurs" déconseille fortement les tags...

 

Mais Prestashop génère automatiquement le fichier robots.txt avec cette ligne : "Disallow: /*tag=", en tout cas pour la version 1.4 que nous avons.

 

J'en conclue donc, qu'avec un fichier robots.txt édité comme ça, les pages générées par des tags ne seront de toute façon pas crawlées par les robots...donc finalement, les pages de tags ne sont pas indéxées.

 

Mais pouvez-vous me confirmer ce point?

 

Et donc, mon hypothèse va à contre-courant de ces 2 points, à savoir que :

 

1. Je crois que les tags sont très utiles pour le référencement, qu'il soit naturel ou payant.

2. Je crois que les tags doivent être indéxés par les moteurs.

 

Ce problème de "duplicate content" n'a déjà absolument aucun sens, car la définition donnée par les anti-tags est fausse. Les antis-tags parlent de "duplicate content" simplement parce que des fiches produits se retrouvent à la fois dans les pages catégories et dans les pages de tags. Ce n'est pas du tout du contenus dupliqués. C'est simplement du contenus linkés différemment, comme des produits présents sur les pages de promotions, de nouveaux produits, de produits phares, des fabricants, des fournisseurs, de meilleurs ventes etc....Et que je sache, Google est tout sauf contre le linking...

 

Et je vais vous donner un exemple de l'utilité des pages de tags :

 

Imaginons que vous avez une catégorie de produits "vélo" avec 3 sous-catégories "vélo homme" "vélo femme" et "vélo enfant", et plusieurs centaines de produits dans ces différentes catégories.

 

Vous regardez sur Analytics vos mots clés tapés et vous remarquez que les mots clés "vélo de course", "vélo de ville", "vtt" etc sont recherchés par vos visiteurs. Mais il y a un problème. Soit vos visiteurs tombent sur une fiche produit bien positionnée sur la requête, sans savoir qu'il y a d'autres produits qui pourraient correspondre, soit ils tombent sur l'une de vos catégories, et doivent faire le tri alors qu'ils pensaient trouver les produits répondant à leur demande.

 

Comment optimiser ces mots clés?

 

Vous n'allez pas pouvoir forcément toujours créer des sous-catégories ou d'autres catégories, en fonction des recherches de vos visiteurs. C'est super d'un point de vue moteur, mais ça va devenir un enfer pour vos visiteurs.

 

Mais si vous créez des pages tags "vélo de course", "vélo de ville", "vtt", et que ces pages sont indéxés par Google et bien positionné, c'est jackpot!

 

En résultat nautrel

 

Vos visiteurs ont une page ultra ciblée, donc pertinente, donc visitée, donc peu de rebond, donc du temps passé dessus...donc Google fait son petit calcul "secret" et il est très content de vous, car grâce à vous, il propose le contenu demandé. C'est une relation gagnant-gagnant-gagnant. Les seules perdants sont ceux qui n'utilisent pas de tags.

 

En payant

 

Avec Adwords, vous linkez vos annonces, non pas sur une catégorie général qui va vous ruiner, mais sur une page de tags ultra ciblée sur une requête. Imaginez des centaines, des milliers d'annonces ciblés à chaque fois sur un tag? Et comparez ça à vos annonces actuelles. Je rappelle que la création d'annonces sur Adwords est gratuite.

 

Et pensez au cercle vertueux...grâce à l'analyse. Vous checkez les mots clés venant des résultats naturels, de vos campagnes adwords, de votre moteur de recherche interne et vous créez de nouveaux tags, quand vous ne pouvez pas créer de nouvelles catégories.

 

Bref, je pense que les tags sont devenus indispensables pour avoir un site rentable.

 

 

Après cette (longue explication), voilà mon souhait:

 

- Indexer les pages de tags (modifier le fichier robots.txt?)

- Optimiser les pages de tags (comment créer et éditer des balises métas?)

 

Merci,

 

Harvie

Share this post


Link to post
Share on other sites

Bonsoir,

 

Dire que les Tags sont devenus indispensables n'est pas une vérité.

 

Il n'a jamais été démontré que c'était inutile. Il n'a jamais été démontré que c'était utile. En fait il y a une gestion technique et une stratégie référentielle mettre en place et à gérer dans la création de tags.

 

Les Tags créent du lien "indoor" donc, pour que cela apporte une réelle productivité dans l'accroche du visiteur, il faut que ces Tags soient établis de manière à ne créer aucune latence dans la gestion du clic-visiteur.

 

Pour répondre à vos questionnement :

 

• On index pas les pages de Tags sur un "robot.txt.

Tous simplement parce que les robots analysent l'ensemble du site et donc, forcer une indexation sur ces pages reviendrait à demander à ces Dots de revenir sur les pages qu'ils ont déjà analysées.

 

• Il y a un paradoxe dans votre question... l'optimisation d'une page Tags...

D'abords on ne crée pas de pages Tags... Les Tags sont des affluents de mots qui relis par des liens choisis, sur des pages spécifiques aux mots sélectionnés par le webmestre.

 

Les optimiser revient à faire ce que ma réponse ci-dessus vous a été apportée

 

Les Tags doivent être utilisé comme un "raccourci" pour le visiteur et non comme un élément indispensable à une optimisation référentielle.

Share this post


Link to post
Share on other sites

Bonjour,

 

Alors pour répondre à votre post et pour le synthétiser, vous partez sur 4 constats :

 

1. Les tags créent uniquement du lien "indoor"

 

2. Rien ne sert d'indexer une page de tags

 

3. De toute façon, on ne peut pas d'optimiser une page de tags

 

4. Et finalement, les tags ne sont que des raccourcis

 

 

Je ne suis pas, comme vous vous en doutez, d'accord avec ces 4 points :). Et voici pourquoi, en reprenant ces 4 points :

 

 

1. Les tags créent effectivement du lien "indoor", mais pour les rendre vraiment utile, ils devraient créer du lien "outdoor"

 

2. Pour que cela puisse se faire en référencement naturel, il est indispensable de pouvoir les indexer

 

3. Pour les voir apparaître correctement positionné dans les SERPS, il est indispensable de les optimiser

 

4. Je suis au moins d'accord sur un point : les tags sont des simples "raccourcis". Mais alors, quand est-il des catégories, sous-catégories, pages fabricants et fournisseurs etc...sinon des pages de raccourcis qu'on essaye de voir apparaître le mieux possible dans les SERPS?

 

Pour revenir sur l'utilité des pages de tags en référencement payant :

 

Le phénomène de longue traîne est largement établie. Il est le présent et le futur de la vente en ligne (voir d'ailleurs l'excellent livre de Chris Anderson sur le sujet). Ici, je parle de la longue traîne au sens large et pas seulement la longue traîne de mots-clés en référencement naturel. La longue traîne comme une stratégie de business à part entière.

 

Mais quand est-il en référencement payant, avec Adwords?

 

Avec une boutique en ligne, il y a souvent 2 possibilités. Soit la page d’atterrissage de l'annonce est directement une page produit, et dans ce cas, on ne peut pas faire beaucoup mieux en ciblage et en segmentation. Mais on s'accordera tous à dire que c'est souvent difficile à mettre en place, et la plupart du temps simplement impossible de résumer une demande d'un prospect sur une page produit. Donc, l'autre possibilité, très largement utilisé, est de prendre comme page d’atterrissage une catégorie de produits. Mais alors, où est le phénomène de longue traîne et tous ses avantages?

 

Le système d'enchère mis en place par google est implacable. Il suffit de voir la diminution constante du ROI des mots clés ciblant des produits best sellers. Pour survivre en référencement payant, la donne sera la même qu'en référencement naturel : cibler la longue traîne. OK, et on fait comment? On crée des milliers de nouvelles catégories. Non, mais par exemple, on peut utiliser les pages de tags.

 

En référencement naturel, la loi de Pareto des 20/80 s'applique bien, et on remarque que 80% du trafic vient de la longue traîne. Pourquoi ne pas prendre ces mots clés, issus de la longue traîne, les analyser, les regrouper dans une page de tags (quand c'est possible), et faire pointer une annonce dessus. Et multiplier ensuite cela à "l'infini" pour chaque groupe de mots clés. Chaque annonce ne sera peut être affichée que quelques dizaines de fois par mois, et cliquée dessus que quelques fois par mois...mais multipliez ces clics par le nombre d'annonces?

 

Les tags créent-ils uniquement du lien "indoor"? Non, ils créent aussi du lien "outdoor", et surtout ils créent de la valeur. De la valeur pour vos clients, car ils tombent sur une page ciblée. De la valeur pour vous, parce que le taux de rebond va baissé, le taux de conversion augmenté, le CPC baissé, et le positionnement augmenté.

 

 

Pour revenir sur l'utilité des pages de tags en référencement naturel :

 

Imaginons un internaute qui tape sur Google (ou sur votre propre moteur interne) : "vélo bleu avec guidon vert". Vous n'allez pas créer une catégorie pour ça. Des demandes de ce genre, vous en avez des milliers par mois. Et même si vous vous rendez compte, avec Analytics, que "vélo bleu avec guidon vert" est tapé en moyenne 32 fois / mois, vous n'allez toujours pas créer une catégorie pour ça. Des requêtes avec quelques dizaines de demandes par mois, vous en avez peut être des centaines tous les mois. Mais si on ne peut pas créer 100 nouvelles catégories par mois, on peut et on devrait créer 100 nouvelles pages de tags tous les mois.

 

Une belle page de tags, avec en H1 et en méta-title "vélo bleu avec guidon vert", regroupant les pages produits relatives. Et sur chaque pages produits relatives, un lien "vélo bleu avec guidon vert" qui pointe sur la page de tags.

 

Google comprend, grâce au linking interne et à la sémantique, au faible taux de rebonds et au temps passé sur la page, que cette page de tags semble pertinente pour la requête "vélo bleu avec guidon vert". Si on avait pu indexer et optimiser cette page, que ce serait-il passé sur notre positionnement dans les SERPS sur cette requête?...et cela, multiplié par les centaines ou les milliers d'autres requêtes qui pourrait être intégrées?

 

Toujours pas convaincu par les pages de tags :) ?

 

Les vrais pages de "navigation", ce sont les pages de catégories. Ces pages ont été créées comme les rayons d'un super marché, codifiés, copiés d'un concurrent à l'autre pour ne surtout pas "troubler" le visiteur. Mais dans un magasin, tous les visiteurs entrent toujours par la même porte d'entrée et commencent leur visite par là. Et vont ensuite d'un rayon à l'autre, à leur gré...

 

Sur internet, les visiteurs ne veulent pas commencer leur visite par la porte d'entrée, ni même dans un des rayons proposés. Ils veulent commencer leur visite dans un rayon crée sur-mesure pour eux. Et je ne comprend toujours pas pourquoi ce rayon sur-mesure n'est pas proposé...

Share this post


Link to post
Share on other sites

Bon... Vous voulez en venir à quoi ?

 

Je ne vais pas répondre à cette masse textuelle... vous voulez avoir raison... alors vous avez raison... voilà !

 

je ne peux que vous conseiller de lire ou relire l'excellent livre de M. Andrieu Réussir son référencement web et vous constaterez que votre analyse semble quelque peu erronée

 

Par ailleurs une petite précision concernant la longue traine.

 

Vous dites... je vous cite :

 

En référencement naturel, la loi de Pareto des 20/80 s'applique bien, et on remarque que 80% du trafic vient de la longue traîne. Pourquoi ne pas prendre ces mots clés, issus de la longue traîne, les analyser, les regrouper dans une page de tags (quand c'est possible), et faire pointer une annonce dessus. Et multiplier ensuite cela à "l'infini" pour chaque groupe de mots clés. Chaque annonce ne sera peut être affichée que quelques dizaines de fois par mois, et cliquée dessus que quelques fois par mois...mais multipliez ces clics par le nombre d'annonces?

 

je vous rappelle la définition de la Longue Traine :

 

La longue traîne du référencement naturel fait référence aux mots clés qui attirent séparément peu de visiteurs sur un site Internet. Le cumul de ces mots clés à faible trafic peut alors représenter une part non négligeable du trafic total d'un site.

 

La longue traine regroupe des termes de faible portée et donc bien évidemment vous pouvez les utiliser, mais la portance du mot dans les SERP sera complètement nulle du fait que la qualité de ces derniers n'existe que par la juxtaposition d'un ensemble de mots.

 

Autre chose... la Loi Pareto ne s'applique absolument pas sur un site web. Même si on l'applique à toutes les sauces, la loi de pareto n'est pas universelle. Elle n'a pas de fondement scientifique. Cette loi est surtout utilisée en Marketing et dans un magasin par contre c'est sans garantie aucune par des études et des recherches poussées dans le domaine du référencement de sites web.

Share this post


Link to post
Share on other sites

Bonjour,

 

Où je veux en venir? Sur une réflexion, c'est d'ailleurs l'intitulé de mon topic...Mon but n'est pas d'avoir raison ou pas, mais de proposer ma propre réflexion sur un sujet que je pense très important...mais trop négligé. Et de comprendre pourquoi mais surtout comment y remédier.

 

Cette "masse contextuelle" vient simplement appuyer cette réflexion, avec des exemples très concrets. Après, je ne vous impose en rien de la lire.

 

Pour ma part, j'ai lu avec attention votre réponse et j'ai même suivi votre conseil : j'ai ré-ouvert le livre d'Andrieu. Et j'ai vu, en page 411, je cite :

Conclusion : la longue traîne, le futur du positionnement

 

Et autre point important avec la longue traîne, je pense que restez bloquez sur le référencement naturel, ce qui est, à mon sens, une erreur car bien trop réducteur. La longue traîne ne s'arrête pas à l'univers SEO mais est un modèle économique à part entière. Car, comme je l'ai précisé, je parle de la longue traîne comme d'une stratégie globale. Une stratégie qui visent à vendre moins de plus, et qui va à l'encontre d'une vente traditionnel de "best-sellers". De "petits sites e-commerce" utilisent exclusivement ce système de longue traîne. Je pourrais citer Amazon par exemple mais il y en a des milliers d'autres et aussi des milliers d'autres dans d'autres activités du web : eBay, YouTube, Leboncoin...bref, bien que mon analyse vous semble erronée, je vous invite, simplement par curiosité, à vous intéresser dès maintenant au phénomène de longue traîne dans son ensemble...

 

Concernant la loi Pareto, je suis surpris qu'un référenceur (car, au vue de votre signature, j'en conclue que c'est votre métier?), dise, je cite :

la Loi Pareto ne s'applique absolument pas sur un site web

 

Puisque vous m'avez conseillé de re-lire le très bon livre d'Andrieu sur le référencement naturel, je pense que vous devriez jeter un œil à la page 405, où il est écrit que : 20% du trafic (la tête) vient de requête "best sellers" et que 80% du trafic (la queue) vient de la longue traîne...Un système 20/80...toujours pas de lien entre la loi Pareto et un site web? Sinon vous pouvez jeter un œil à la page 61, pour comprendre le principe et vous verrez d'ailleurs qu'il est cité Chris Anderson, un auteur que je vous avais également conseillé de lire dans mon précédent post. Comme quoi, ma "masse textuelle" comporte quand même quelques sujets intéressants...

 

Pour être au moins en accord avec vous sur un point, oui cette loi n'a aucun fondement scientifique, car il s'agit d'une vision empirique. Mais vous avez dit, je cite :

sans garantie aucune par des études et des recherches poussées dans le domaine du référencement de sites web

 

Pour vos études et recherches, je vous invite à utiliser des outils comme Google Analytics qui viennent très souvent confirmer ce phénomène de longue traîne.

 

Enfin, j'ai crée ce topic pour essayer de comprendre le "blocage technique" des tags sur les sites en général, et prestashop en particulier. En pensant que cela nuit grandement au phénomène de longue traîne. Et je me retrouve, avec une personne, dont pourtant le référencement et le web-marketing semble être son métier, qui affirme que :

 

- les tags ne sont ni utiles, ni inutiles (merci d'ailleurs pour cette fine analyse)

- le phénomène de longue traîne n'est qu'une suite de mots clés

- la loi pareto ne s'applique absolument pas à un site web

 

Sans vous offenser, je ne m'attendais pas à ce genre de réponse. Je vous laisse bien sûr le soin de me répondre si vous le souhaitez mais le but de ce topic reste une réponse à mes questions :

 

- Pourquoi les tags sont bloqués en indexation?

 

Et s'il n'y a pas de raisons valables:

 

- Comment, techniquement parlant, les indexer et les optimiser?

 

Merci d'avance à ceux qui ont leur petite idée....

Share this post


Link to post
Share on other sites

bon je ne réponds que sur 2 points, car pour le reste j'ai autre chose a faire que de me gratter la tête avec un posteur qui pense avoir toujours raison. A la suite de ma réponse, je n'interviendrais plus sur ce post.

 

• Vous citez la page 411 une pseudo phrase sur cette page...

Regardez bien, car en ce qui me concerne (version 2011) aucune phrase que vous avez quoté n'existe.

Cette page parle de : je cite : Problème 4 - Contenus proche sur un même site web en particulier.

Donc c'est un chapitre expliquant la duplication.

 

• Vous citez la page 405 concernant la loi Pareto

sur la version 2011 la page 405 parle, la encore, de la duplication et absolument pas de Loi Pareto.

 

À moins que la version 2012 soit complètement changée (ce que je doute aux dernières lectures que j'ai eu l'occasion de faire), je pense que vous avez dû fortement vous tromper dans les pages ou pire vous n'avez pas forcément tout lu dans son intégralité

 

Pour info dans la version 2011 :

• La longue traine est traitée aux pages 45, 66 et 503

• La Loi Pareto n'est pas traitée.

 

Pour la page 61 il parle du fonctionnement des outils de recherche.

 

Bref !! Bref !! Bref... :rolleyes:

 

LA référence 20/80 d'une longue traine vient d'Aderson.... aaahhh mon dieu vous parlez d'Anderson... c'est bien. Vous avez certainement confondu alors avec le livre (La Longue Traine) de Chris Anderson datant de l'édition 2007 :DB).

 

Ce livre était particulièrement critiqué tant dans son contenu que dans la véracité pseudo scientifique de cette fameuse loi Pareto s'appliquant soi-disant sur un site web. Tous les professionnels s'accordent à dire que c'est du n'importe quoi, car rien n'a été absolument vérifié, ni sur le plan d'une étude scientifique, ni par des résultats concrets et vérifiable dans le domaine du web.

 

Mais bon, cela est un autre débat.

 

sur ce... bonne journée et bon grattage cérébral ^_^

Share this post


Link to post
Share on other sites

Et bien, si vous n'interviendrez plus sur ce post, je peux donc me permettre de "clôturer" vos interventions afin que nous passions définitivement à autre chose.

 

Donc pour infos, car cet élément semble revêtir une importance particulière pour vous, le livre que je possède date de 2010. Je vous prie sincèrement de m'excuser si les pages citées ne correspondent plus au vôtre. Mais je vois que vous avez fais l'effort de rectifier cela en mentionnant ces écarts donc tout va bien. A partir du moment où nous parlons de la même chose, le support n'a pas vraiment d'importance.

 

Le principe des 20/80, ou loi Pareto, est effectivement utilisé pour symboliser l'effet de longue traîne. Et non, je ne confond pas du tout de livre. Chris Anderson est cité dans le livre d'Andrieu, avec un graphique 20/80 dans le chapitre sur le concept de la longue traîne, appliqué aux mots clés en SEO. Si vous ne voyez pas l'effet 20/80 sur les visites, les paniers, les produits, les clients...d'un site e-commerce d'une taille raisonnable, si vous ne comprenez pas le concept, je me pose de sérieuses questions quant à votre engagement professionnel dans ce domaine.

 

Et pour parler du livre d'Anderson sur la longue traîne : des livres sur l'économie/business/marketing dans les pays anglo-saxons sortent tous les jours et sont même les catégories de livres les plus plus édités et ceux depuis des décennies...bien plus que les livres parlant des régimes. Autant dire que la concurrence dans ce domaine est extrêmement dur. Quant un livre dans cette catégorie arrive à devenir un best-seller, comme celui d'Anderson, le résultat est toujours le même : c'est une imposture. Les critiques des "professionnels" inondent le web. Je laisse quand à ma moi le lecteur faire son choix. Les "professionnels" dont vous parler connaissent-ils : Amazon, Wikipédia, Ebay, Marmiton, PriceMInister, Dailymotion etc? Car, pour tous ces succès du web, la longue traîne est exclusivement utilisée, fait partie intégrante de leur business model...et elle est aujourd'hui l'unique raison de leur succès.

 

Pour comprendre et intégré un concept comme celui-ci, il faut avoir une vision systémique plutôt qu'analytique, et c'est cela qui vous fait défaut aujourd'hui. C'est ce qui vous empêche d'élever un débat et vous oblige à vous raccrocher à des détails. C'est ce défaut qui vous empêche de prendre le temps d'analyser un système dans son ensemble, mais qui vous donne le temps de rectifier les numéros de pages que j'ai cité.

 

Pour revenir sur mon sujet, à savoir l'utilisation des tags pour "scotcher" la longue traîne, j'ai la conviction que, si ce système est bien mis en place, peut apporter énormément à un site web, et encore plus à un e-commerce. Ce que je ne m'explique pas, c'est le fait que ceci soit bloqué sous prestashop (et sur les autres plate-formes?) dans une optique SEO. Je trouve cela contre-nature.

 

Ma question est donc destiné à ceux qui ont une vrai idée sur le sujet.

Share this post


Link to post
Share on other sites

Bonjour,

 

Merci pour votre retour. En effet, ce module permet, pour la page des tags, de :

 

- Générer les balises métas

 

- Générer des friendly URLs

 

Donc la partie optimisation est possible avec ce module...bonnes nouvelles.

 

Mais il reste le problème de départ, à savoir l'indexation de ces pages de tags...est-ce un avantage ou un inconvénient en SEO? Car pour le moment, Prestashop "bloque" l'indexation des tags, l'optimisation n'a donc aucun intérêt sur ces pages si elles ne sont pas indexées par les moteurs.

 

Affaire à suivre donc...

Share this post


Link to post
Share on other sites

Bonsoir,

 

Après lecture du sujet et je ne rentre pas dans les détails on pourrais conclure, en se rappelant de l’essentiel.

Les tags ne sont que des liens.

 

La question que vous devez vous poser n’est pas :

“Puis-je réaliser un nuage de tag pour améliorer mon référencement ?”

 

Mais il peut par contre arriver que la solution “tags” réponde à des questions comme :

“Comment intégrer cette structure de liens de façon agréable ?”,

“Comment optimiser le positionnement de mes top recherches ?”,

“Comment étendre facilement le champ de mes mots clés ?”,

“Comment créer une sous structure de pages qui puissent dynamiser le positionnement de pages déjà existantes ?”…

 

Quelquefois les tags sera une bonne réponse, quelquefois non.

Mais n’oubliez jamais d’accorder beaucoup d’importance à la structure des liens, et à celle des landing pages de ces tags.

 

Les nuages de tags ne sont pas préjudiciables en eux même, par contre, mal pensés, mal construit, ils ne sont pas toujours souhaitables.

 

Cordialement,

Melki-Tsedeq

Share this post


Link to post
Share on other sites

Bonsoir,

 

Je suis tout à fait d'accord avec vous sur le fait que le choix de l'utilisation (ou non) des tags reste avant tout basé sur la qualité de la préparation en amont : réflexion et construction. Que ce soit pour les liens comme pour les pages d’atterrissage.

 

Mais, il en va de même à tous les endroits du site, et principalement les pages de catégories et sous-catégories, qui vont jouer un rôle primordiale dans l'architecture globale, et qui doivent donc être bien pensées et bien construites.

 

Imaginons qu'une réflexion a été faite sur le choix des catégories et sous-catégories, couplé à un système de tags qui vient appuyer des requêtes qui ne rentre pas dans l’arborescence générale du site. Dans ce cas de figure, on peut s'accorder à dire qu'il s'agit d'une bonne stratégie. Et dans une optique SEO, ce système permet de cibler une multitude de requête ciblée.

 

Les tags deviennent donc simplement d'autres points d'entrés, comme le sont finalement les pages fournisseurs et fabricants...

 

Alors, pourquoi Prestashop "autorise" l'indexation des catégories, des fabricants, des fournisseurs, mais pas des tags?

Share this post


Link to post
Share on other sites

Bonjour Harvie,

 

Pour répondre à votre question le module Tags a été désactivé en FO et bloqué dans le robots.txt par la Team Prestashop suite aux recommandations du blog e-commerce d’Olivier Lévy. Il est vrai que le module en état actuel n’apporte pas grand-chose. Donc à priori plutôt un effet négatif car il sème la confusion niveau sémantique pour les moteurs de recherches. Et comme vous avez pu le constaté il n’est pas Optimisé.

 

Et ajouté a cela le fait que les utilisateurs du module ne l’utilise pas de la bonne façon car souvent on voit une répétition des noms de catégorie ou noms de produit en tags.

 

Je pense que la Team a fais le bon choix dans l’état actuel des choses.

Mais rien ne vous empêche de les utiliser de la façon don vous imaginez…

 

Cordialement,

Melki-Tsedeq

Share this post


Link to post
Share on other sites

Bonjour,

 

Merci pour votre réponse. Je suis allé sur le blog en question mais je n'ai pas trouvé d'articles parlant des tags...mais en tout cas, j'ai ma réponse.

 

Donc pour résumé, Prestashop avait 2 choix :

 

1. Bloquer les tags en indexation et donc ne pas faire le travail d'optimisation puisque, dans ce cas, aucun intérêt...le défaut de cette solution étant, et bien, que dans l'état, les tags ne peuvent pas être utilisés en vue d'optimiser une boutique d'un point de vue SEO.

 

OU

 

2. Autoriser les tags en indexation, et dans une optique SEO, permettre une optimisation...mais sachant que si les tags sont mal utilisés, trop identiques aux catégories et aux produits, cela n'apporte aucun intérêt en SEO, et même pire, peut desservir la boutique.

 

Ils ont donc opté pour la première solution. Quant à moi, je vais explorer la deuxième, sur une boutique de test et voir ce que cela apporte...

Share this post


Link to post
Share on other sites
  • 9 months later...

Bonjour,

 

Je suis plutôt du même avis que HARVIE.

 

Entre parenthèse, on nage parfois en plein délire au sujet du duplicate content google ou l'on mélange un peu tout et n'importe quoi.

Car présenter son catalogue sous plusieurs angles de vues (via les catégories, les marques, les tags, le module de recherche interne, la pagination, le tri, les prix, les caractéristiques etc...) qui renvoient parfois sur des résultats identiques n'est pas de la duplication de contenu, c'est vieux comme le monde informatique de présenter parfois un même résultat suivant plusieurs cheminements distincts.

 

Extrait du support.google au sujet du duplicate content :

 

Exemples de contenu non malveillant :

  • forums de discussion pouvant générer à la fois des pages normales et des pages "raccourcies" destinées aux mobiles ;
  • articles en vente affichés ou liés via plusieurs URL distinctes .......

Donc pour revenir aux tags pour de nombreux sites, cela dépend parfois des sites, cela a du sens à ce que les recherches via tags soient indexées parceque plus pertinentes que la simple recherche par catégorie/ss catégorie etc... c'est donc doublement utiles ET pour notre site (pour avoir plus de visites et mieux qualifiées) ET pour les utilisateurs google.

 

D'ailleurs google l'a prévu et le détecte (voir 'paramètres d'url' du webmaster tools google) automatiquement (pas toujours) même si derrière il se mélange un peu les pinceaux puisqu'il peut indiquer des title en double.

 

On peut toujours "tricher" en générant un title "titre tag1" "titre tag2" pour pallier les lacunes de google (il sait bien que c'est un paramètre d'url cette feignasse de google puisqu'il l'a lui même détecté tout seul comme un grand, qu'est-ce qu'il vient nous faire ch.er avec son title en double) mais de là à mettre du noindex et du robots.txt à tour de bras, c'est la solution de facilité et surtout c'est contre productif.

Share this post


Link to post
Share on other sites
Guest
This topic is now closed to further replies.
×
×
  • Create New...

Important Information

Cookies ensure the smooth running of our services. Using these, you accept the use of cookies. Learn More