Bonjour,
les articles que nous vendons sont parfois (voire souvent !) présents dans plusieurs rayons. nous nous retrouvons donc confrontés à un pb de duplicate content. il m'a semblé constater que, de ce fait, nous retrouvons avec plusieurs URL pour un même produit, du type :
url1.html
url1.html?catalogParam[shopId]=12463
url1.html?catalogParam[topicId]=74034
mais il me semble aussi avoir constaté que les 2 types d'urls :
url1.html
url1.html?catalogParam[shopId]=12463
peuvent exister alors que le produit n'existe que dans un seul rayon.
ai-je bien compris, jusque là ?
face à la possible sanction de google pour le duplicate content, j'ai pensé que l'on pouvait ajouter une ligne dans notre robot.txt, du type :
Disallow: /*?
qui supprimerait de l'indexation toutes les pages dynamiques contenant "?" dans l'url.
sauf que je ne suis pas très sûre de mon coup, car je ne sais pas comment Change génère toutes ses urls.
ma question est donc : voyez-vous un soucis majeur dans mon idée ?
si l'on a l'url :
url1.html?catalogParam[shopId]=12463
sa racine url1.html existe-t-elle obligatoirement en tant qu'url valide dans Change (c'est ce qu'il me semble, sur notre site)? si c'est le cas, le "Disallow: /*?" du robot.txt permettrait de supprimer de l'indexation le duplicate content mais pas l'indexation de la page source. qu'en pensez-vous ? est-ce que je risque, par cette méthode, de supprimer de l'indexation d'autres pages auxquelles je ne pense pas ?
ou y a-t-il une méthode "automatique" proposée dans change ?
merci de vos lumières.
version change 3.6.3