Jump to content
Sign in to follow this  
Sébastien François

[RESOLU] Indexation des pages en "noindex" ?

Recommended Posts

Bonjour à tous !
Suite à un problème de duplicate content avec les tris, j'ai mis en place un test dans le header qui pose la balise "noindex" lorsque l'on repère des variable de tri (orderby, n, p, etc.)
Les pages passent bien en "noindex", pas de problème.
J'ai ensuite "lavéé mon site en déclarant à google toutes les pages à enlever ce qu'il a fait sans broncher. Mais après quelques jours, de nouvelles pages sont apparues, nouvelles pages qui sont bien en "noindex".
Est-ce que certains d'entre vous ont déjà eu ce phénomène (page en noindex ajoutées par google) ? Si oui, comment l'avez-vous résolu ?
Merci beaucoup !

Share this post


Link to post
Share on other sites

Bonjour,

Certaines pages vont mettre des mois à être définitivement supprimées.
Concernant Google le mieux que tu puisses faire c'est probablement de lui dire de ne pas tenir compte des paramètres des tris etc...

Dans tes outils google pour webmaster il faut aller au menu "Configuration du site" / "Paramètres" puis à la rubrique "Traitement des paramètres" tu cliques sur "Adapter la configuration des paramètres »".
A ce moment là il t'affiche les paramètres qu'il a trouvés, tu mets ce que tu souhaites en "Ignorer" puis tu enregistres et normalement le tour est joué :)

En espérant que ça t'aidera.

Share this post


Link to post
Share on other sites

Merci de cette réponse.
En fait, j'ai déjà fait retiré les pages que je voulais retirer. Le problème est qu'elle réapparaissent. Donc je ne pense pas que ce soit une question de temps...

Share this post


Link to post
Share on other sites

Si tu as utilisé la demande de retrait de Google, ça ne m'étonne pas, au bout de quelques mois elles réapparaissent si les URLs sont toujours sur le site.
En effet, cette fonction est un retrait d'urgence temporaire, elle sert uniquement pour des pages qui portent un grave préjudice comme par exemple des informations confidentielles qui seraient exposées par erreur ; cette fonction ne doit pas être utilisée pour d'autres cas. Par exemple dans ton cas ça ne fonctionne pas ou pas bien car dans mon souvenir il faut s'assurer que les pages que l'on veut retirer renvoient définitivement une erreur 404 ou équivalent.

Le plus efficace dans Google pour se débarrasser de pages existantes et qui ne sont pas destinées à disparaitre du site web c'est de les mettre en noindex ; mais pour qu'il les enlève encore faut il qu'il repasse dessus et selon l'importance des pages il peut mettre longtemps, notamment s'il juge qu'elles sont du duplicate content (ce qui est le cas pour les fonctions de tri) et/ou qu'elles ne sont pas dans son index principal mais dans son index secondaire.

Si tu veux voir un aperçu des URLs qui sont dans l'index principal de Google il te suffit de chercher ça sur Google :
site:www.kyototradition.com/&

Mais bon tout ceci devrait en principe être un peu atténué grâce au nouveau moteur de Google qui a été mis en place récemment, il est sensé indexer beaucoup plus vite qu'avant et devrait normalement réduire l'écart de traitement entre les index principal et secondaire...

Share this post


Link to post
Share on other sites

Merci pour cette réponse !
J'ai très peu de page dans l'indexe principal de google donc ça risque de prendre du temps. Je vais donc travailler mes backlinks pour augmenter le crawl de google et attendre.

Share this post


Link to post
Share on other sites
Guest
This topic is now closed to further replies.
Sign in to follow this  

×
×
  • Create New...

Important Information

Cookies ensure the smooth running of our services. Using these, you accept the use of cookies. Learn More