Voilà, j ai retrouvé !! et je partage :
Comment corriger le problème ?
Veuillez mettre à jour le fichier robots.txt sur votre serveur Web afin de permettre à l'explorateur de Google de récupérer les pages de destination fournies. Ce fichier est généralement situé dans le répertoire racine du serveur Web (par exemple, http://www.example.com/robots.txt). Pour nous permettre d'accéder à l'intégralité de votre site, veillez à ce que votre fichier robots.txt autorise les deux user-agents "Googlebot" (utilisé pour les pages de destination) et "Googlebot-image" (utilisé pour les images) à explorer votre site. Pour ce faire, modifiez le fichier comme suit :
User-agent: Googlebot
Disallow:
User-agent: Googlebot-image
Disallow:
Ca doit marcher !