Jump to content

Multiboutique et noindex


Recommended Posts

Bonjour,

 

Je dispose d'une même boutique à la fois pour la France, l'Espagne, l'Allemagne et le Royaume-uni, avec des noms de domaines différents : une extension par pays (l'Allemage et le Royaume-uni ont un nom de domaine différent des 2 autres pays).

 

Aujourd'hui, j'aimerais rendre accessible aux moteurs de recherche uniquement le site France, qui correspond à la boutique par défaut dans mon mode multiboutique.

 

Seulement je ne sais pas comment faire. Est-il possible de poser un noindex sur les sites, hormi le site France ? Ou bien de bloquer le suivi des MR à partir du fichier robots.txt pour tous les sites sauf la France, sachant que les domaines sont différents ?

Actuellement j'ai généré mon fichier robots.txt, mais j'ai l'impression que toutes les directives s'appliquent à tous les domaines, alors que je voudrais appliquer des règles différentes en fonction des domaines !

 

Merci beaucoup d'avance pour vos éclaircissements :)

 

 

Link to comment
Share on other sites

Bonjour,

 

Justement c'est bien ça le problème, je n'ai qu'un fichier robots.txt commun à l'ensemble de mes domaines. Ce qui me semble logique au final puisque je partage mes sites dans une seule et même BDD, j'ai un FTP commun à tous mes sites aussi, étant sur un fonctionnement multiboutique...

 

En revanche j'ai bien une adresse différente pour accéder à mon fichier en fonction du domaine (nom-domaine-pays/robots.txt) mais ce fichier est constitué des mêmes directives, impossible de les différenier. Par exemple, je ne peux pas décider de ne suivre que le domaine France vs les autres pays. Et pour chacun des pays, il y a un renvoi au fichier sitemap France. Or je voudrais aussi pouvoir différencier cette ligne en fonction du pays sur lequel je suis!

 

Comment faire pour générer un fichier robots.txt différent selon la boutique/domaine avec le mode multiboutique de PS ?

 

Merci d'avance,

 

Beakido17

  • Like 1
Link to comment
Share on other sites

Pour l'histoire du sitemap j'arrive par contre à le distinguer dans le fichier robots.txt en fonction du pays.

 

En revanche, je ne peux quand même pas distinguer les directives en fonction du domaine : impossible de l'éditer pour ne suivre qu'un seul domaine et pas les autres....

Link to comment
Share on other sites

J'ai déjà eu ce cas avec un client qui avait une boutique en francais avec un .com et des prix en euros et la meme boutique en .ch avec les prix en CHF

 

L'agence qui lui avait créé le site avait mis un noindex sur la boutique en .ch, en surchargeant la classe FrontController :

 

Dans /override/classes/controller/FrontController.php il faut ceci :

    public function initHeader()
    {
        // P3P Policies (http://www.w3.org/TR/2002/REC-P3P-20020416/#compact_policies)
        header('P3P: CP="IDC DSP COR CURa ADMa OUR IND PHY ONL COM STA"');

        /* Hooks are volontary out the initialize array (need those variables already assigned) */
        $this->context->smarty->assign(array(
            'time' => time(),
            'img_update_time' => Configuration::get('PS_IMG_UPDATE_TIME'),
            'static_token' => Tools::getToken(false),
            'token' => Tools::getToken(),
            'priceDisplayPrecision' => _PS_PRICE_DISPLAY_PRECISION_,
            'content_only' => (int)Tools::getValue('content_only'),
        ));

		$myContext = Context::getContext();
		$shopurl = ShopUrl::getMainShopDomain($myContext->shop->id);
		$this->context->smarty->assign('idshop', $myContext->shop->id);
		$langId = $this->context->cookie->id_lang;
		$this->context->smarty->assign('shopurlfix', "http://".$shopurl."/".Language::getIsoById($langId)."/");

        if (Tools::getValue('selected_filters') || Tools::getValue('token') || Tools::getValue('add') || ($myContext->shop->id == 1)) {
            $this->context->smarty->assign('nobots', true);
        }

		if ($myContext->shop->id == 1) {
			$this->context->smarty->assign('nofollow', true);
		}

        $this->context->smarty->assign($this->initLogoAndFavicon());
    }

Bien sur, tu changes le "id == 1" par l'id de la boutique que tu ne veux pas indexer. S'il y en a plusieurs, tu mets in (if... in_array())

 

Autre solution, plus propre à mon gout, c'est d'utiliser les balises hreflang pour indiquer à google les cibles de chaque boutique.

Link to comment
Share on other sites

Bonjour 3pom,

 

Je ne parviens pas à éditer le fichier robots.txt exclusivement pour un nom de domaine. Quand je génère un robots.txt à partir d'un nom-domaine-pays/ depuis le BO cela écrase l'ancien à la racine de mon site, normal, et s'applique pour tous les domaines/pays (ce que je ne veux pas).

 

Voici les différentes adresses de mon fichier robots.txt :

http://original-parts.fr/robots.txt

http://original-parts.es/robots.txt

http://my-original-parts.co.uk/robots.txt

...

 

J'ai bien l'impression que sur un fonctionnement multiboutique (avec même bdd, ftp..), ce n'est tout simplement pas possible d'avoir un fichier robots.txt distinct pour chacun des domaines du multiboutique....

  • Like 1
Link to comment
Share on other sites

Merci Johann pour votre réponse !

 

Même si en effet les hreflang sont plus propres et permettent d'éviter les soucis de Duplicate Content et d'indiquer les équivalents de mon site principal pour les différentes locas à Google, je ne peux pas les mettre en place dans mon cas car les contenus entre mes sites ne seront pas tous et exactement pareils....

 

Je vais donc essayer de mettre en place la première solution que vous m'avez transmise, je vous tiens informé !

 

Merci !

Link to comment
Share on other sites

Bonjour 3pom,

 

Je ne parviens pas à éditer le fichier robots.txt exclusivement pour un nom de domaine. Quand je génère un robots.txt à partir d'un nom-domaine-pays/ depuis le BO cela écrase l'ancien à la racine de mon site, normal, et s'applique pour tous les domaines/pays (ce que je ne veux pas).

 

Voici les différentes adresses de mon fichier robots.txt :

http://original-parts.fr/robots.txt

http://original-parts.es/robots.txt

http://my-original-parts.co.uk/robots.txt

...

 

J'ai bien l'impression que sur un fonctionnement multiboutique (avec même bdd, ftp..), ce n'est tout simplement pas possible d'avoir un fichier robots.txt distinct pour chacun des domaines du multiboutique....

 

En effet, car dans le cas de multiboutique, comme tu le disais plus haut, on a un seul et unique FTP. Et donc un seul et unique robots.txt, puisque le nom est normalisé

  • Like 1
Link to comment
Share on other sites

Je ne suis pas d'accord et heureusement d'ailleur :)

 

J'ai bien 4 ftp et 4 url et 4 robots.txt

 

http://www.esprit-equitation.com/robots.txt

http://www.esprit-equitation.de/robots.txt

 

 

 

Mais moi je n'ai qu'un seul FTP pour toutes mes boutiques, c'est pour cette raison que je ne pourrai pas distinguer mon fichier robots.txt en fonction du domaine...

 

Vous avez actionné le mode multiboutique de PS ? Comment avez vous fait pour avoir 4 FTP ?  Je pensais que l'un des objectifs de ce mode était aussi de tout avoir en un seul endroit, comme ça quand on modifie le thème par exemple, cela se réplique sur tous les domaines de la boutique. Mais dans votre cas est-ce que ça fonctionne aussi ?

 

Désolée je suis un peu confuse....

Edited by Beakido17 (see edit history)
Link to comment
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...