Jump to content

1490 pages indéxées ....ça fait bcp non ?


Recommended Posts

Salut la compagnie,

j'ai besoin de votre aide.

Je n'ai que peu de connaissance dans le domaine de la programmation je vais donc utiliser mes propres mots.

Voila, en discutant avec un ami j'ai voulu savoir combien de pages étaient indexées chez le monarque google.

j'ai donc tapé site:www.alarme-maison-sans-fil.fr et là je trouve un résultat de 1490 pages......

Avec dedans des doublons, triplons, quadruplons, ...............

Je pense, à tord peut être, que cela doit fortement me pénaliser. A titre de comparaison, 2 mastodontes du domaine ont entre 400 et 500 pages référencées avec un catalogue bien plus important que le mien.

Que dois je faire ?

mon site map est à jour. J'ai entendu parler de robot.txt kezako ???


Merci pour votre aide

Link to comment
Share on other sites

C'est plutôt bon signe si tu as des centaines de pages indexées chez Google. Ce que tu peux faire pour vérifier qu'il n'y a pas de contenu dupliqué - ce qui peut effectivement être pénalisant - c'est installer la console du webmaster de google, c'est un outil pratique pour le webmaster qui donne des informations précises. Il te permettra notamment de vérifier que :

+ Tu n'as pas de balises title dupliquées
+ Tu n'as pas de balise meta "desc" dupliquées (utilisée pour le snippet qui apparaît dans les pages de résultat)
+ Tu pourras aussi soumettre le fichier sitemap de ta boutique prestashop et d'autres fichiers sitemaps si tu en as pour vérifier le nombre d'URL indexées par rapport au nombre d'URL dans le sitemap.

Link to comment
Share on other sites

  • 2 weeks later...

Vérifie ce qui se passe avec tes paramètres de tri, j'ai eu le même problème.
Indique à google une page et regarde combien de fois elle apparait (elle ne devrait apparait qu'une fois, mais apparemment là, ce n'est pas le cas).
Par exemple, de mon côté, j'ai eu de gros problèmes avec une catégorie qui apparaissait plus de 100 fois à cause de paramètres de tris qui étaient différents. Ensuite, tu trouveras sur le forum comment résoudre ce problème.

Link to comment
Share on other sites

Il y a plusieurs solutions et je ne suis pas assez calé sur le sujet pour te dire laquelle est la meilleure.
Personnellement, j'ai mis une simple boucle de test pour savoir si une des variables de tri est activée (avec un "isset") et pour mettre du noindex ni c'est le cas. Niveau code, ça donne ça :

if (isset($_GET['orderby']) OR isset($_GET['orderway']) OR isset($_GET['n']) OR isset($_GET['id_lang']) ) {
$smarty->assign('nobots', 1); // variable Smarty de Prestashop qui appose la valeur "noindex,follow" dans la balise META Robots
}

dans header.php. A mon avis, il y a beaucoup mieux. Tu peux chercher sur le forum avec le terme "duplicate content". Si quelqu'un de meilleur que moi lis ce message et veut rajouter quelque chose, ce serait super.

Pas de nouvelle page de tri indexée depuis que je l'ai rajouté. Par contre, ça met vraiment beaucoup de temps à partir.
Il faut aussi configurer ton fichier robots.txt. Tu peux mettre ça dedans :

User-agent: *
# Directories
Disallow: /classes/
Disallow: /config/
Disallow: /download/
Disallow: /mails/
Disallow: /modules/
Disallow: /translations/
Disallow: /tools/
Disallow: /stats/

# Files
Disallow: /addresses.php
Disallow: /address.php
Disallow: /authentication.php
Disallow: /cart.php
Disallow: /contact-form.php
Disallow: /discount.php
Disallow: /footer.php
Disallow: /get-file.php
Disallow: /header.php
Disallow: /history.php
Disallow: /identity.php
Disallow: /images.inc.php
Disallow: /init.php
Disallow: /my-account.php
Disallow: /order.php
Disallow: /order-slip.php
Disallow: /order-detail.php
Disallow: /order-follow.php
Disallow: /order-return.php
Disallow: /order-confirmation.php
Disallow: /pagination.php
Disallow: /password.php
Disallow: /pdf-invoice.php
Disallow: /pdf-order-return.php
Disallow: /pdf-order-slip.php
Disallow: /product-sort.php
Disallow: /search.php
Disallow: /statistics.php
Disallow: /zoom.php

Ca devrait déjà résoudre 90% du problème. Pour faire mieux, il te faudra trouver quelqu'un de meilleur que moi. ^^

Link to comment
Share on other sites

  • 3 weeks later...
if (isset($_GET['orderby']) OR isset($_GET['orderway']) OR isset($_GET['orderway']) OR isset($_GET['n']) OR isset($_GET['p']) OR isset($_GET['id_lang']) ) {
$smarty->assign('nobots', 1); // variable Smarty de Prestashop qui appose la valeur "noindex,follow" dans la balise META Robots
}

dans header.php.


Bonjour,

Je remarque que tu as mis deux fois "isset($_GET['orderway'])".
Un seul suffit. ;-)


Par contre, je ne suis pas sûre qu'il faille mettre "isset($_GET['p'])", car il faut bien que Google référence les différentes pages du site. Le paramètre "p" correspond au numéro de la page voulue. En laissant ce paramètre, d'après-moi, Google ne référencera que la page 1, et pas les autres.

Peux-tu me confirmer STP ?
Merci !
Link to comment
Share on other sites

Je confirme que le doublon est une erreur de ma part. Bon, ça ne gène pas, mais ça n'apporte rien, autant le supprimer.
Le fait de n'indexer qu'une page est un choix de ma part. Il est vrai que les autres pages ne seront pas indexées mais de toute façon elles ne contiennent aucun contenu unique intéressant pour le lecteur ou pour google (contrairement à la première page qui contient la description de la catégorie). Mais on peut faire le choix inverse.
Donc tes deux remarques sont tout à fait pertinentes. Je supprime le doublon de mon côté (merci beaucoup !) et tu peux faire le choix inverse du mien sur ton site si tu le veux en supprimant le paramètre "p".

Link to comment
Share on other sites

OK merci !
Pour moi, je trouve important que Google référence tous les produits, donc d'après moi, il doit passer par toutes les pages de listing de produits.

Bonne journée à toi !

PS : pense à éditer ton message du dessus pour les mots en trop ;-)

Link to comment
Share on other sites

Je confirme que le doublon est une erreur de ma part. Bon, ça ne gène pas, mais ça n’apporte rien, autant le supprimer.


...si si un Duplicat Content...

Juste un petit détail, mais qui a quand même son importance.

Lors de la visite du robot, ce dernier se repère sur l'ensemble des liens. Cela veut dire qu'il suit les différents liens qu'il trouve que cela soit des pages doublons (Duplicat Content) ou les liens qui même vers les déclinaisons.

Donc pas étonnant qu'une boutique pour pue qu'elle est 200 produits avec chacune 5 déclinaisons cela représente déjà une indexation de 1.000 pages.
Link to comment
Share on other sites

... si tu veux

sauf qu'en SEO l'algebre de Boole n'est pas applicable

en seo a+a=2a et cela même si tu rajoute ou retire 1 ou 2 terme. La globalité de ta description est exactement la meme malgrè 1 ou 2 mot qui change.


Sauf qu'ici, on parle de code et non de SEO. S'il te plait, peux-tu lire la discussion complète avant de répondre ? ;-)
Il ne s'agit pas d'un doublon dans une page web mais d'un double d'un variable dans une ligne de code. Rien à voir. Et je pense pouvoir dire sans me tromper qu'en php, l'algèbre de Boole s'applique plutôt bien (je ne suis pas un expert en php et si quelqu'un m'expliquait pourquoi c'est faux, peut-être que je comprendrais mieux pourquoi certaines chsoes que je code ne réagissent pas comme je le veux... ;-) )

La ligne de code permet justement d'appliquer le paramètre "noindex" aux pages qui ont certaines variables activées pour éviter le duplicate content. Et je testais deux fois une variable, ce qui ne sert à rien mais ne gène en rien. De toute façon, j'ai édité le code.
Link to comment
Share on other sites

Guest
This topic is now closed to further replies.
×
×
  • Create New...