Documentation RBS Change : PB de duplicate content

  • 81391.1

    15/10/2013 15:53


    flof
    Rang : Membre
    Bonjour,

    les articles que nous vendons sont parfois (voire souvent !) présents dans plusieurs rayons. nous nous retrouvons donc confrontés à un pb de duplicate content. il m'a semblé constater que, de ce fait, nous retrouvons avec plusieurs URL pour un même produit, du type :

    url1.html
    url1.html?catalogParam[shopId]=12463
    url1.html?catalogParam[topicId]=74034


    mais il me semble aussi avoir constaté que les 2 types d'urls :
    url1.html
    url1.html?catalogParam[shopId]=12463

    peuvent exister alors que le produit n'existe que dans un seul rayon.

    ai-je bien compris, jusque là ?

    face à la possible sanction de google pour le duplicate content, j'ai pensé que l'on pouvait ajouter une ligne dans notre robot.txt, du type :
    Disallow: /*?
    qui supprimerait de l'indexation toutes les pages dynamiques contenant "?" dans l'url.
    sauf que je ne suis pas très sûre de mon coup, car je ne sais pas comment Change génère toutes ses urls.
    ma question est donc : voyez-vous un soucis majeur dans mon idée ?
    si l'on a l'url :
    url1.html?catalogParam[shopId]=12463
    sa racine url1.html existe-t-elle obligatoirement en tant qu'url valide dans Change (c'est ce qu'il me semble, sur notre site)? si c'est le cas, le "Disallow: /*?" du robot.txt permettrait de supprimer de l'indexation le duplicate content mais pas l'indexation de la page source. qu'en pensez-vous ? est-ce que je risque, par cette méthode, de supprimer de l'indexation d'autres pages auxquelles je ne pense pas ?

    ou y a-t-il une méthode "automatique" proposée dans change ?

    merci de vos lumières.

    version change 3.6.3

  • 81391.2 en réponse à 81391.1 écrit par flof

    15/10/2013 17:03


    Jean-Michel
    Titre : Community Manager
    Rang : Expert
    Bonjour,

    Pour les éléments de type produit cette problématique est déjà prise en compte, il suffit pour pour cela de voir sur une fiche produit la présence dans le source de la page des paramètres canoniques (section "head" balise de type "<link rel="canonical"...").
    Voici quelques liens sur les URLs canoniques :

    Si vous devez ajouter vous même des paramètres canoniques pour un bloc que vous avez développé, je vous invite à regarder sur le wiki le code de "recipes/lib/blocks/BlockRecipelistAction.class.php" sur la page de création d'un bloc de liste en cherchant la méthode "addCanonicalParam".

    Par ailleurs, au besoin, vous avez la main sur le fichier robots.txt de votre site, pour cela il vous suffit d'éditer les propriétés de votre site dans le module "Sites et page" (clic droit > Editer sur le site concerné).

    Pour une meilleure réponse, pensez à indiquer la version sur laquelle vous rencontrez des difficultés, ainsi que son type (CMS ou eCommerce core).
    Pour tout problème d'installation indiquez le nom de l'hébergeur et s'il s'agit d'un serveur mutualisé ou dédié.
  • 81391.3 en réponse à 81391.2 écrit par Jean-Michel

    16/10/2013 11:30


    flof
    Rang : Membre
    Bonjour Jean-michel,

    et merci de votre réponse. je comprends bien qu'il est plus "propre" de passer par la balise dont vous parlez et dont j'avais en effet lu l'utilité ! mais, malheureusement, nous sommes les utilisateurs finaux, et notre prestataire n'a pas mis en place la fameuse balise <link rel="canonical"..."> (absente du code de nos fiches produits dupliquées), d'où ce duplicate content rescencé par google, et qui nous inquiète. Nous recherchons donc une alternative que nous pourrions mettre en place nous-mêmes, d'où mon idée de supprimer de l'indexation par le robot.txt les urls contenant un "?". A votre avis, mon idée présente-t-elle un risque quelconque ? s nous mettons en place cela, notre site risque-t-il de voir certaines de ses pages importantes non indexées ?

    merci de votre avis sur ce point précis.
  • 81391.4 en réponse à 81391.3 écrit par flof

    21/10/2013 11:49


    Jean-Michel
    Titre : Community Manager
    Rang : Expert
    Bonjour,

    L'idée que vous avez présente en effet un risque assez important. En attendant, il serait plus simple de gérer via le fichier robots.txt les fiches à ignorer en les renseignant explicitement.

    Je ne pense pas que votre prestataire ai pris le temps de retirer le code qui gère les URL canoniques ; il s'agirait d'un travail supplémentaire et périlleux. Aussi, pouvez-vous me fournir (via la messagerie privée) un exemple de page en duplicate content et m'indiquer le type des produits en question (produit simple, déclinés...) ainsi que les rayons dans lesquels se trouve les produits en question?


    Pour une meilleure réponse, pensez à indiquer la version sur laquelle vous rencontrez des difficultés, ainsi que son type (CMS ou eCommerce core).
    Pour tout problème d'installation indiquez le nom de l'hébergeur et s'il s'agit d'un serveur mutualisé ou dédié.
  • 81391.5 en réponse à 81391.3 écrit par flof

    05/11/2013 18:26


    Jean-Michel
    Titre : Community Manager
    Rang : Expert
    Bonjour,

    Après examen des données que vous m'avez fournit et reproduction du problème, il s'agit dans le cas présent d'un problème du côté de RBSChange et non quelque chose lié à votre intégrateur.
    J'ai créé un ticket de bug en rapport avec ce problème, je vous invite donc à suivre ce ticket afin d'en voir l'évolution.

    Pour une meilleure réponse, pensez à indiquer la version sur laquelle vous rencontrez des difficultés, ainsi que son type (CMS ou eCommerce core).
    Pour tout problème d'installation indiquez le nom de l'hébergeur et s'il s'agit d'un serveur mutualisé ou dédié.
 
Merci de prendre connaissance et de respecter les règles des forums.
 
1425 membres
Aucun membre connecté