Détail du message 81391.1

Message numéro 1 dans le sujet PB de duplicate content.

  • 81391.1

    15/10/2013 15:53


    flof
    Rang : Membre
    Bonjour,

    les articles que nous vendons sont parfois (voire souvent !) présents dans plusieurs rayons. nous nous retrouvons donc confrontés à un pb de duplicate content. il m'a semblé constater que, de ce fait, nous retrouvons avec plusieurs URL pour un même produit, du type :

    url1.html
    url1.html?catalogParam[shopId]=12463
    url1.html?catalogParam[topicId]=74034


    mais il me semble aussi avoir constaté que les 2 types d'urls :
    url1.html
    url1.html?catalogParam[shopId]=12463

    peuvent exister alors que le produit n'existe que dans un seul rayon.

    ai-je bien compris, jusque là ?

    face à la possible sanction de google pour le duplicate content, j'ai pensé que l'on pouvait ajouter une ligne dans notre robot.txt, du type :
    Disallow: /*?
    qui supprimerait de l'indexation toutes les pages dynamiques contenant "?" dans l'url.
    sauf que je ne suis pas très sûre de mon coup, car je ne sais pas comment Change génère toutes ses urls.
    ma question est donc : voyez-vous un soucis majeur dans mon idée ?
    si l'on a l'url :
    url1.html?catalogParam[shopId]=12463
    sa racine url1.html existe-t-elle obligatoirement en tant qu'url valide dans Change (c'est ce qu'il me semble, sur notre site)? si c'est le cas, le "Disallow: /*?" du robot.txt permettrait de supprimer de l'indexation le duplicate content mais pas l'indexation de la page source. qu'en pensez-vous ? est-ce que je risque, par cette méthode, de supprimer de l'indexation d'autres pages auxquelles je ne pense pas ?

    ou y a-t-il une méthode "automatique" proposée dans change ?

    merci de vos lumières.

    version change 3.6.3

 
1467 membres
Aucun membre connecté