Guide référencement

Etat des lieux

Le référencement représente la source principale de trafic, pour la majorité des sites web. Bien que quelques exceptions tirent leur épingle du jeu grâce aux réseaux sociaux ou à l’emailing, le référencement représente en général une 70 à 90% du trafic, que ce soit un site institutionnel, eCommerce, ou de service en ligne.

Parmi les moteurs de recherche amenant du trafic sur votre site, Google domine le marché avec plus de 90% des parts (source : Stat Counter)

Google représente 90% des parts de marché pour la recherche

Comment fonctionne un moteur de recherche ?

Tout d’abord, définissons l’objectif d’un moteur de recherche : lorsqu’un utilisateur cherche quelque chose, le moteur de recherche propose une réponse adaptée.

La réponse peut prendre différentes formes :

  • une galerie d’images,
  • une fiche technique,
  • une définition encyclopédique,
  • une carte géographique,
  • une sélection d’actualités
  • une liste de pages web

Ces contenus font partie d’une collection appelée « Index ».

Un algorithme retient les contenus les plus pertinents et les affiche sur une page de résultats (Search Engine Result Page, ou SERP)

Google se constitue un index à partir de logiciels automatisés appelés « Crawlers », « spiders », ou « Bots ». Le plus connu s’appelle GoogleBot. Il en existe pour chaque type de contenu et service.

Fonctionnement de GoogleBot :

Lorsque GoogleBot analyse une page web, il prend une « photographie » horodatée. Vous pouvez la voir dans les SERPs, en cliquant sur l’option « Version en cache ».

Pour optimiser l’actualisation de l’index, GoogleBot adapte la fréquence d’analyse en fonction des mises à jour de la page web.

  • Il revient plus souvent sur les pages régulièrement mises à jour.
  • Il espace ses visites sur les pages qui ne changent pas.

Il liste ensuite les liens proposés par cette page et les stocke dans une base de données.

GoogleBot analysera ensuite les liens ajoutés dans sa base de données.

Pour que Google découvre une nouvelle page web, il suffit de faire un lien vers celle-ci depuis une page déjà connue de Google.

Filtrage et pénalité Panda

Maintenant, vous savez comment Google découvre des pages web et les stocke dans son index.

Son index est devenu tellement complet que Google cherche à en optimiser la taille. Il supprime les doublons et les pages de faible qualité.

Voici quelques exemples de pages de faible qualité :

  • une page générée automatiquement à partir d’informations piquées ça et là.
  • une page avec très peu de mots ou juste une jolie photo
  • une page avec des listes de liens
  • une page présentant les même éléments dans un autre ordre (des pages eCommerce  avec les même produits, classés par ordre alphabétique, de prix ou de date d’ajout)
  • une page de Tag wordpress avec un seul article dedans.

Cette liste n’est pas exhaustive mais regroupe les principaux cas rencontrés.

Quand Google détecte une page de mauvaise qualité, il va soit la dévaloriser, soit la retirer de l’index.  (Recommandations officielles ici, pour faire des contenus « utiles » )

J’ai remarqué que si un nom de domaine regroupe trop de pages de mauvaise qualité, alors toutes les pages du domaine sont rétrogradées dans les SERPs. Il y a une pénalité globale, à l’échelle du domaine. Ce mécanisme est appelée « Panda ».

Pénalité Penguin

Quand une page A fait un lien vers une page B, Google considère ce lien comme un « vote » offert par la Page A pour la Page B.

Les pages ayant le plus de liens ont plus de chances d’apparaître en première page.

Quand une page web correctement conçue n’apparaît pas en bonne position, les référenceurs font plus de liens !

Des fois même un peu trop.

GoogleBot pénalisera les liens ayant été faits manifestement pour booster une page web.

Il faut faire des liens depuis des sources fiables et partageant des sujets communs avec la page à promouvoir.

La pénalité penguin rétrogradera la page de plusieurs dizaines de positions sur la requête que vous essayez de pousser avec des liens illégitimes.

 

Optimisation du référencement naturel

Le référencement est un art qui mélange méthode, curiosité, expertise technique et sensations fortes.  J’ai rédigé ce guide pour aider mes clients actuels et futurs à avoir des repères et éviter de faire trop de bêtises s’ils veulent s’y essayer par eux-même.

Parce que le référencement commence par un nom de domaine …

Le nom de domaine permet aux internautes d’atteindre l’espace d’hébergement où est stocké votre site.  Toutes les pages web de votre site sont associées à votre nom de domaine.

Or, pour le contexte, rappelez-vous :

  1. Faire référencer un site web,  c’est élaborer une stratégie de communication dont l’objectif est d’inciter les medias à vous citer comme une référence.
  2. Généralement, lorsque vous obtenez une citation, l’auteur de l’article fait un lien vers une page de votre site web, qui est associée à votre nom de domaine.

Scénario catastrophe : si un jour vous devez changer de nom de domaine, vous perdrez tous les liens obtenus par vos efforts de communication. Vous devrez redémarrer de zéro !

C’est établi : Une fois le nom de domaine décidé, c’est bien souvent pour la vie ! 

Le choix du nom de domaine est une étape stratégique pour le référencement de votre site web.

Pour aller plus loin :

 

Votre site est-il compatible avec Google ?

Avant que votre site Internet puisse apparaître dans les moteurs de recherche, faut-il encore que ceux-ci puisse le parcourir correctement, comprendre l’organisation des rubriques et appréhender avec certitude les sujets abordés sur vos pages Web.

Votre site vient d’être livré par votre agence de création de site et vous êtes très excité par les perspectives qu’offre votre nouveau support web.

C’est une nouvelle à fêter comme il se doit mais est-il vraiment prêt à être indexé par les moteurs de recherche ? Est-il « Search Engine Friendly » ?

Avez-vous seulement indiqué les contraintes techniques nécessaires dans votre cahier des charges ?

Avant de signer le bon de livraison, je vous recommande vivement de contrôler tous les freins à l’indexation et la conformité du livrable par rapport au cahier des charges. Regardez notamment l’état du fichier Robots.txt, la présence d’un sitemap XML et la canonisation des URL – Ce dernier point étant prioritaire pour éviter de lourdes pénalités algorithmiques.

Comment présenter votre nouveau  site à Google ?

Votre site est en ligne et vous aimeriez bien commencer à faire du business. Soudain, catastrophe ! Vous tapez son nom et il n’apparaît pas dans Google. Comment ? Pourquoi ?

Avez-vous seulement fait le nécessaire pour que Google puisse trouver et découvrir votre nouveau support ? Soumission aux moteurs de recherche, inscription aux annuaires d’entreprises et présentation de votre site à vos partenaires commerciaux sont les 3 étapes de base du référencement. Commencez par n’importe lequel – mais faites en au moins un dans les plus brefs délais pour que Google puisse se mettre quelque chose sous la dent et débuter le crawl de vos pages.

 

Comment choisir ses mots clés et contrôler leurs performances ?

Vous devez à présent vous assurer que votre support apparaisse sur des requêtes en relation directe avec l’intention de consommer vos produits.

Votre première difficulté sera de dissocier votre vocabulaire de celui de votre cible marketing : Les mots qu’ils utilisent peuvent être bien différents des vôtres !

Il existe un tas d’outils pour vous aider à trouver des mots clés : Google Trends et Google Adwords sont les plus fréquemment utilisés. Un autre lot d’outils vous permet d’espionner la concurrence en place pour trouver les mots qu’ils visent.  Par exemple, l’excellent SEMRUSH (Prononcez èss – i – aime – reuche).

Une fois votre premier dictionnaire de mots établis, vous devez suivre les performances de votre site dans le temps. Vous pouvez vous aider de Google WebMaster Tools mais les données manquent cruellement de précision et d’historique. Des services en lignes payants peuvent donner des indications plus précises : MOZ.COM, MyPoseo, semrush …

Vous pouvez également créer des filtres dans votre outil de statistiques en mettant en relation les mots clés ayant généré du trafic et les ventes réalisées. Vous trouverez les mots clés qui génèrent le plus de profit en proportion ou en valeur absolue.

Le mot clé, c’est l’arbre qui cache la forêt

Attention toutefois à ne pas accorder plus d’importance à ces mots clés que celle qu’ils méritent ! En effet, Google sait très bien identifier le sujet d’un article et l’associer à un mot clé. Que cette expression soit citée quatre ou dix fois dans vos rédactions. Pour en savoir plus à ce sujet, vous pouvez lire cet article consacré à l’efficacité de la densité de mots clés sur Google.

Comment contrôler les positions du site sur Google ?

Si l’optimisation du référencement consiste à améliorer la visibilité du site sur les moteurs de recherche, alors vous devrez contrôler régulièrement les positions dans Google. Plusieurs outils vous permettent de le faire :

  • La recherche directe dans Google (Attention à la personnalisation des résultats)
  • L’usage d’une logiciel de scrapping
  • L’usage d’un outil en ligne tel que « Positeo »

Pourquoi vous ne devriez plus faire de blog ?

Ou « Le trafic de mon blog a explosé et il ne fait que redescendre depuis des semaines. Pourquoi ? »

Sur beaucoup de sites, on voit des blogs. Pourtant, je considère que c’est une énorme bêtise, dans la majorité des cas, et je vais vous expliquer pourquoi.

Quand les gens se décident à « remplir le blog », ils commencent par couvrir les sujets les plus évidents pour eux et leur business (et souvent ceux qui génèrent le plus de Trafic rentable !). C’est tout à fait logique !

A force de (s’obliger à) remplir le blog, les articles s’empilent, jusqu’à ce que les premiers articles (et les meilleurs sujets) se retrouvent en page 2, puis 3, puis 10. Ils s’enfoncent inexorablement dans l’arborescence.

Et c’est là que tout s’effondre ! Pourquoi ?

Quand on fait des liens vers un site web, le potentiel du lien (le jus) impacte la page cible, mais ensuite ce potentiel est redistribué vers les pages liées depuis la page cible. Plus on plonge en profondeur dans l’arborescence du site, plus le jus est dilué et moins les liens qu’on a fait auront d’impact.

Résultat : Les meilleurs sujets couverts dans un blog sont donc souvent ceux qui bénéficient le moins du pouvoir du netlinking.

C’est ainsi qu’on observe tous les ans des blogs qui montent fort en puissance … avant de redescendre en trafic, encore et encore. Face à ce constat, la pire des choses à faire est d’intensifier la publication de nouveaux articles, ça ne fera qu’accélérer le processus.

Si vous vous reconnaissez dans cette situation, commandez-moi un atelier sur la stratégie de communication. Je serai ravi de vous donner des clés pour redresser la situation, avant qu’il ne soit trop tard !

Comment apparaitre en meilleure position dans les résultats de recherche ?

Une page de votre site apparaît dans les pages de résultats des moteurs de recherche (SERPs) quand ce moteur juge la page assez pertinente et populaire pour mériter d’être suggérée à l’internaute venant de taper un mot clé.

Pour être listé en bonne position dans les moteurs, vous devez faire en sorte que votre page soit :

  • Plus pertinente que les autres
  • Plus populaire que les autres

Il n’y a aucun secret, aucune potion magique vous permettant d’aller plus vite tout en garantissant la pérennité de vos actions !

Optimisations du code HTML

Pour aider les moteurs à mieux percevoir les expressions pertinentes, vous pouvez optimiser le code HTML et ainsi mettre en valeur les expressions phares.

Préambule : Acquérir de bonnes pratiques de codage.

Si les moteurs de recherche mettent en avant les pages qu’elles jugent les plus pertinentes, il faut tout d’abord vous assurer qu’ils sachent interpréter correctement le code HTML que vous leur avez concocté. Avant de commencer l’optimisation « on-page » de votre site, lisez ces 12 conseils pour avoir un code lisible et « Search Engine Friendly »

Les choix technologiques et les méthodes de codage ont un impact sur les webperformances et votre référencement

Le saviez vous ?
Google favorise dans ses résultats, les sites qui répondent à un cahier des charges spécifique en termes de webperf. Au contraire, ceux qui ne respectent pas ce cahier des charges sont pénalisés !

Vous pourrez faire toutes les optimisations en texte, liens, et meta description que vous voudrez, si vos webperfs sont mauvaises, vous aurez de bonnes chances de rester derrière vos concurrents.

Les critères de favorisation sont appelés « core web vitals ». Pour mesurer vos webperformances, vous pouvez utiliser un outil de Google qui s’appelle Page Speed Insights.

Parmi ces critères, le CLS

Pour avoir un bon score en CLS, la page parfaite doit charger sans que les éléments qui la composent ne bougent sur l’écran.

Il convient donc de forcer la Hauteur et largeur des images, vidéo et autres éléments pouvant être chargés de manière asynchrone (un espace pub ou un bouton rajouté à la volée via du JavaScript par exemple)

A l’air du Mobile First et du responsive web design (la norme depuis 2012), vous devez forcer avec des instructions CSS min-height/max-height en px + height en pourcentage.

Si vous chargez une feuille de styles CSS en asynchrone, les instructions pour forcer doivent être en embed, c’est à dire directement dans le code HTML shooté. Ça doit fonctionner même si la feuille CSS n’est pas chargée.

Par extension, voici une mauvaise pratique :

  1. Faire un bloc A
  2. Faire un bloc B
  3. Déplacer B avant A en utilisant Flexbox

On pourrait être tenté de bloquer le rendering, par exemple avec un splash et un picto de chargement animé,  jusqu’à ce que Flexbox soit chargé et exécuté, mais ça va nuire à un autre critère de performance : le LCP.
Bloquer le rendering n’est donc pas une solution acceptable, bien que trop souvent utilisée.

Parmi ces critères, le LCP

Le LCP, c’est le délai nécessaire pour afficher la plus grand bloc de votre page (Le contenu, en général). Plus ce délai est long, plus c’est mauvais. En général, les sites qui fonctionnent avec un CMS « sortie d’usine » ont un mauvais score, parce que le contenu est stocké dans une base de données, et que la page doit être reconstruite à chaque fois qu’elle est appelée.

Lorsqu’un site fonctionne à l’aide d’un CMS, il est indispensable d’activer (voir ajouter) une fonctionnalité de mise en cache : une fois la page construite, le code généré est sauvegardé pour une durée raisonnable et reservi autant de fois que nécessaire. Avec cette technique, nous pouvons obtenir des LCP inférieurs à 1 seconde, contre plus de 2 ou 3 secondes lorsque la fonctionnalité n’est pas en place.

Si l’activation du cache ne suffit pas, alors c’est que votre solution d’hébergement n’est pas assez réactive. Optez pour une mise à niveau de votre hébergement. Certains hébergeurs vous permettent de faire évoluer voter offre en un clic, sans aucune intervention technique. D’autres nécessitent une migration du site (voir de vos boites emails), ce qui fait très vite monter la note en main d’oeuvre. Pour limiter les coûts de migration, choisir un hébergeur flexible est donc impératif, dès la création de votre site web.

 

Par quelles balises commencer ?

Si vous ne deviez optimiser que deux zones dans votre code HTML, ce serait la balise TITLE (c’est la première chose que voient les internautes) et le premier paragraphe de votre page. Évitez de vous éparpiller dans des théories fumeuses ou des balises dont l’intérêt est plus que limité, telles que les Dublin Core.

 

Comment optimiser les images ?

Il suffit de vous assurer que votre expression soit située dans le texte alternatif et dans le nom de fichier de votre image. D’autres critères peuvent influer sur l’algorithme du moteur de recherche, tels que la résolution de l’image, les données exif, le nombre de déclinaisons trouvées sur le web, etc.

Mais attention : google privilégie les pages contiennant du texte. Un site composé essentiellement d’images peut aisément positionner sur des mots clés faiblement concurrentiel. C’est une autre affaire lorsque que ses concurrents publient du rédactionnel utile et intéressant !

Comment optimiser les liens ?

La majeure partie de l’attention des référenceurs est portée sur les liens. Bien que Google soutienne aujourd’hui le contraire, les liens restent le nerf de la guerre.

Attention toutefois aux pénalités algorithmiques « pingouin » infligées par Google. Elles ont pour objectif de déclasser une page en cas de sur-optimisation. Par exemple, quand une part trop importante des liens entrants utilise la même ancre, ou pointant vers la même page, ou de sites ayant en commun trop d’indices tels que Whois, adresses IP, identifiants Google Analytics, thème wordpress, etc.

L’optimisation des liens porte principalement sur deux caractéristiques: l’ancre du lien et son attribut title. Pour en savoir plus sur cet attribut, lisez cet article : « Title : L’attribut qui ne fait pas couler beaucoup d’ancres »

D’autres critères, tels que la cohérence de thématiques entre les sites/pages d’origine et de destination doivent pondérer le choix de vos supports de communication.

 

 

 Augmenter sa popularité en faisant des liens

Préambule : 4 pistes pour gagner des liens en dur … et durables

En plus de 15 ans d’activité, j’ai expérimenté le meilleur comme le pire en matière de netlinking. Parfois « black hat », souvent « white hat », j’ai appris que les meilleurs liens sont tout autant le fruit du travail, le fruit du hasard ou l’opportunité en or qu’il fallait saisir au bon moment.

Parmi les sites que j’édite en nom propre, il m’en reste quelque uns qui datent de 2004 et 2005 et qui génèrent encore en cumulé près de 300.000 visites par mois.

Seuls ont survécu les sites sur lesquels a porté une réelle réflexion sur l’éditorial. En d’autres mots : des sites conçus pour aider la communauté.

Tous les autres, fais à l’arrache ou ayant profité ponctuellement de pratiques black hat, ont rejoint le panthéon des sites « feu de paille ».

Je vous livre ainsi 4 pistes pour gagner des liens en dur et durables. Attention, ça nécessite du travail, (Et non, les annuaires ne sont pas morts !)

Gardez le contrôle de vos liens sortants

Les débutants en référencement devraient faire plus attention à leurs liens sortants. En effet, ils peuvent très vite mener à des pénalités.

Faites des liens uniquement vers des sites de confiance et dans un nombre raisonnable, sans quoi vous pourriez être considéré comme un Link Farmer.

Définition d’une farm-link : Page web incluant une liste de liens menant à des sites sans intérêt. Contrairement à un annuaire, les liens ne sont accompagnés d’aucun descriptif ou titre permettant de distinguer le sujet abordé par le site faisant l’objet du lien.

Demandez aux bloggeurs de parler de vous

Lorsque vous publiez un nouvel article pour annoncer une sortie ou un évènement, vous devez consacrer un peu de temps à en faire la promotion. Contactez les éditeurs de votre industrie (Blogs, Forums, magazines) pour leur présenter votre nouveauté et proposez leur de rédiger un petit truc à ce sujet. Précisez l’adresse de votre article pour qu’ils puissent le citer  comme source ou référence.

Les échanges de liens : à vérifier  régulièrement

Si certains vous demandent de faire un lien ou de publier un article sur votre blog en « échange de bons procédés », pourquoi pas ! Mais vous devriez faire attention à ne pas vous faire voler votre « Jus » (Le mojo du référencement) et à contrôlez régulièrement vos partenariats parce que bon nombre d’entre eux ne respectent pas longtemps leurs engagements !

Pour bien vous préparer aux difficultés rencontrées avec les échanges de liens, j’ai regroupé sur cette page les 5 pièges à éviter si vous voulez survivre dans cet aquarium à requins qu’est la sphère SEO.

Techniques avancées de référencement :

Les réseaux de sites

Aller à la pêche aux liens est un travail long et peu rentable. Lorsque vous avez enfin obtenu un lien, vous avez 80% que celui-ci disparaisse dans les 12 mois qui suivent. Tant de travail pour du vent !

A force de vous épuiser à frapper aux portes pour quémander un petit lien, vous serez tentés de monter vos propres sites, pour garder la maîtrise de vos liens.

Il n’y a rien de plus fidèle qu’un partenaire qui nous appartient.

Cependant, monter un réseau de sites dans le feutré, sans que Google ne s’en rende compte est bien plus ardu qu’il n’y parait. Une guerre aux réseaux est d’ailleurs ouvertement déclarée depuis 2011 et Matt Cutts, porte parole Qualité chez Google, annonce régulièrement des pénalités manuelles  à ce sujet.

Règle n°1 : Ne pas utiliser le même compte adsense ou analytics pour vos différents sites.

En montant votre réseau, vous laisserez forcément des traces et Google est équipé pour les détecter.

On sait tous qu’il ne faut pas mettre tous les oeufs dans le même panier, ni tous les sites sur le même serveur.

Alors comment savoir  si deux sites appartiennent à la même personne si les whois sont anonymes et les IP différentes ?

Très facile : Suffit de comparer les code adsense. Comme Google n’autorise qu’un compte par personne, on finit par essaimer son pub-XYZYZYZYZ un peu partout.

 

 

Comment faire durer le référencement de votre site

Quand on triche, il faut se préparer à se faire prendre

 

Si vous trichez, si vous utilisez des raccourcis, pour remonter dans les pages de résultat en faisant fi des Google guidelines, si vous vous faites du typosquatting, si vous faites du keyword stuffing à coup de listes de mots clés ou d’articles de piètre qualité, ça peut marcher ! Mais pour combien de temps ?

Même les meilleurs référenceurs black hat font des erreurs. Combien de noms de domaines et adresse IP sacrifiés avant d’obtenir une technique « furtive » ? Et combien de temps cette technique le restera-t-elle ?

Tôt ou tard, vous vous ferez prendre. Et la chute sera dure. Les gains auront-ils justifiés le temps et les moyens mis en oeuvre pour tricher ?

Saurez vous encaisser la chute, trouver le sommeil et rebondir sans sourciller ?

Si vous aviez employé ces ressources à la construction d’un site propre sous tous rapports, sans avoir honte de vos liens, ni de vos contenus… Où seriez vous aujourd’hui ?

La gestion des contenus obsolètes

Après quelques années d’exploitation, votre site aura évolué. Que faire de ces vieilles fiches produits que vous ne commercialisez plus ? Que faire de ces vieux billets de blog ? Que faire de ces vieux posts de forum ? Vos reliques pourraient bien tirer vers le fond vos nouveaux contenus frais et tant appréciés par Google Caffeine. C’est pourquoi la gestion des contenus obsolète est un atout stratégique pour la réussite à long terme de votre projet web.

 

10 solutions pour vaincre une pénalité Panda

Votre site a plongé dans les pages de résultats sans raisons apparente. Il regroupe plusieurs centaines ou milliers de pages et votre netlinking semble propre. Vous êtes peut être confronté à une pénalisation algorithmique de type « Panda », ciblant les contenus pauvres ou similaires. Voici 10 solutions propres et durables pour vaincre Panda et augmenter votre trafic.

Pénalité « Pingouin » : évitez de sur-optimiser vos liens

Si vous abusez des techniques d’optimisation, Google détectera vos tentatives de manipulation algorithmique et vous infligera de sévères sanctions. Les sanctions peuvent être manuelles ou  automatisées. Les secondes étant déclenchées par un filtre nommé « Pingouin ».

7 étapes pour sortir d’une pénalité Pingouin

  1. Dès maintenant, gommez progressivement la non-qualité. Faites uniquement des liens de bonne qualité (Depuis des sources fiables et liées thématiquement)
  2. Enlevez tous les liens sortants douteux ou menant à un site ayant mauvaise réputation. Je confirme les bons résultats de ce travail.
  3. Si vous êtes infopreneurs : vos liens affiliés en Dofollow sont considérés douteux. Passez les en nofollow.
  4. Vérifiez la présence de liens cachés ou de même couleur que le fond, je confirme l’observation de pénalités.
  5. En cas d’usage intensif de Popup, popover et siteunder, vous pouvez vous prendre des Pénalités Penguin ou Panda.
  6. Faites un fichier de disavow et demandez le retrait des liens les plus mauvais. Ne perdez pas de temps à désavouer vos inscriptions annuaires. A moins d’en avoir encore plusieurs centaines. Concentrez vous sur les sitewide et sponsor de thèmes.
  7. Les techniques de Negative SEO boostent la cible jusqu’au prochain rafraichissement de données Penguin,  puis (au mieux) retour aux positions précédentes. Utile sur des sites jetables, au pire vous prendrez une pénalité manuelle qui brûlera le domaine.