Bonjour,
L'idée que vous avez présente en effet un risque assez important. En attendant, il serait plus simple de gérer via le fichier robots.txt les fiches à ignorer en les renseignant explicitement.
Je ne pense pas que votre prestataire ai pris le temps de retirer le code qui gère les URL canoniques ; il s'agirait d'un travail supplémentaire et périlleux. Aussi, pouvez-vous me fournir (via la messagerie privée) un exemple de page en duplicate content et m'indiquer le type des produits en question (produit simple, déclinés...) ainsi que les rayons dans lesquels se trouve les produits en question?
Pour une meilleure réponse, pensez à indiquer la version sur laquelle vous rencontrez des difficultés, ainsi que son type (CMS ou eCommerce core).
Pour tout problème d'installation indiquez le nom de l'hébergeur et s'il s'agit d'un serveur mutualisé ou dédié.