Bonjour,
robots.txt bloque le crawl, pas l'indexation (les liens peuvent être trouvés dans les pages, votre cas en l'occurrence). Google a donc trouvé des liens et a décidé de les indexer (pertinent pour lui). Si vous voulez bloquer ces pages de Google Search, robots.txt n'est pas le bon mécanisme pour éviter d'être indexé. Pour éviter d'être indexé, supprimer le bloc des ces pages dans robots.txt et utiliser «noindex» dans le header de ses pages.