Aurélien Morillon - Consultant Formateur professionnel webMarketing

Le duplicate content a-t-il eu raison du référencement ?

-

Le 29 mars 2012 - Mots-clés : , , , , , , , ,

De 2005 à 2008, j’ai bossé pour une boite d’édition qui commercialisait un un logiciel de référencement, SubmitWolf, qui marchait pas mal du tout et qui remplissait bien son rôle : Inscrire un site dans des centaines d’annuaires en remplissant un unique formulaire.

Bien sûr, l’objectif était de créer un maximum de liens pour faire plier l’algorithme des moteurs de recherche en sa faveur : Plus de liens = Meilleures positions.

D’autres offres moins qualitatives ont fleuri en parallèle, telles que l’inscription massive au sein d’un réseau d’annuaires. Ce type de prestation a explosé entre 2004 et 2007. L’offre était simple : « Notre réseau réunit 2500 annuaires, donnez nous XX euros et votre site sera présent partout, même s’il ne vaut pas un clou. » Vous imaginez bien le duplicate content qu’une telle offre a pu générer.

Google n’a pas apprécié et a d’ailleurs communiqué à ce sujet en précisant que les liens issus des annuaires ne serait plus appréciés à la même valeur qu’auparavant. Exit DMOZ, Yahoo et consorts.

De petits annuaires émergents on tout de même réussi à s’adapter en imposant des descriptions plus longues, ou au moins uniques. De plus, ils ont employé des techniques plus discutables en reprenant le contenu publié sur le site référencé. Ainsi, bien des sites web sont apparus derrière l’annuaire où ils se sont inscrits pour gagner des positions.

Le Duplicate Content est devenu une psychose collective en 2008 et si quelques Gourous du marketing et autres papes du référencement s’époumonaient déjà depuis plusieurs siècles que « Content is king », bien des webmasters l’ont appris à la dure.

En parallèle, on adaptait SubmitWolf à la saison,  en proposant de faire varier les titres lors des soumissions. L’intérêt, c’était de faire varier les ancres des liens qui pointent vers le site à soumettre, l’objectif final étant de cacher l’automatisation du process et d’augmenter la valeur des liens créés.

Vous vous doutez bien qu’on n’était pas les seuls sur le business, les autres se sont adaptés également. Je pense d’ailleurs à Yooda Submit Center, qui a pris une toute autre direction en pariant sur la soumission manuelle assistée. Au dernières nouvelles, ça leur a plutôt bien réussi. C’était la réponse à une réelle demande des référenceurs français. Bien que leur soft ne soit pas assez productif à mon goût sur les volumes, il est plus ludique pour le webmaster parce qu’il garde la main sur tout le process de soumission, annuaire après annuaire.

Pourquoi alors les annuaires ne sont pas morts ?

La première qualité d’un référenceur, c’est sa capacité à douter et faire des tests. J’ai plusieurs sites labo et en moyenne, j’en fais un nouveau par mois. Voici ce que l’expérience a pu démontré sur les 36 derniers mois :

  1. L’expérience me montre que le recours à un logiciel de référencement reste une bonne méthode pour faire indexer rapidement un site web et lui donner un premier capital de liens de qualité.
  2. L’expérience me montre également qu’en soumettant un site correctement optimisé (Et j’insiste sur le correctement optimisé) à quelques annuaires tous les jours, on arrive à atteindre de très bonnes positions dans un délais relativement court, c’est à dire de 2 à 6 mois.
  3. L’expérience me montre enfin que les premiers dans les SERPs, sur les expressions qui m’intéressent,  sont également ceux qui bénéficient des meilleures techniques de linking … comme des pires. Retrouvons au passage le bourrage de liens en commentaires de blog, le recours à des services d’auto-bookmarking, liens-sponsorisés-mais-chut-faut-pas-dire-à-Google et autres techniques contraires aux Google Guidelines.

Finalement, la seule règle qu’il faut retenir en terme de liens, c’est qu’il n’y en a pas ;-)

 

Réagissez ! Laissez message :

  • François
    9 h 37 le 2 avril 2012 1

    La guerre de Google contre le duplicate ne fait que commencer.

    De plus en plus de sites « poubelles » vont disparaitre des premières places…

  • Aurelien Morillon
    14 h 09 le 11 avril 2012 2

    En effet ! Et quand on voit la recrudescence de sites de « communiqués de presse » , je me dis que la pollution du web est loin d’être terminée.

 

RSS des commentaires | TrackBack URI