Archives de la catégorie : Actu search

Google Quality Update du 3 Mai, comment réagir ?

question

Le 3 mai 2015, Google a déployé une mise à jour nommée « Quality Update ». Elle a été mise en service quelques jours plus tôt en anglophonie, le 29 avril.

Google niant l’existence d’une mise à jour Panda ou Pingouin, elle fut baptisée « Phantom 2″ par nos confrères anglophones. Ce n’est que trois semaines plus tard que Google accepta de communiquer la mise en place d’une « Quality Updade »

Cette mise à jour concerne des paramètres de l’algorithme principal, il s’agit plus particulièrement d’une révision des critères de qualité : Certains ont été repondérés, d’autres ajoutés ou supprimés. Bien entendu, aucun détail digne d’intérêt n’a filtré et il est encore trop tôt pour avoir des retours d’expérience 100% probants.

Critères on-page, on-site, off-site

Les positions ont été recalculées en fonction :

  • Du contenu de la page et de son originalité. Si elle présente le même contenu qu’on retrouve partout ailleurs, alors elle risque d’être shootée.
  • Du contenu trouvé sur les pages vers lesquelles elle fait un lien. Si votre page fait des liens vers des pages hors sujet, alors elle perd des points.
  • Du contenu trouvés sur les pages qui font un lien vers la votre : Si ces pages sont hors sujet, alors votre page risque de perde des points.

Quelles variations prévoir ?

En premier lieu : Il convient de déterminer si c’est votre site qui bouge ou si ce sont qui vous entourent.

  • Si un concurrent qui était devant vous passe derrière, alors vous allez remonter d’une place, mécaniquement.
  • Si un concurrent qui était derrière vous passe devant vous, alors vous perdez une place.

Votre site est-il le roc dans la rivière ou bien un bateau ivre ?

Le seul moyen de le savoir est de lancer une recherche sur Google régulièrement et de stocker les résultats en les datant. En cas de variation, vous pourrez remonter dans le temps et déterminer la date à laquelle le mouvement a eu lieu. Pensez à vérifier que votre outil de suivi de position stocke votre historique ET les SERPs.

Les typologies de sites ayant perdu des positions

Les sites observé ayant perdu des positions sont majoritaires des sites d’information ou de Tutoriel.

  • Annuaire d’entreprises
  • Recettes de cuisine
  • Magazines multi-thématiques

Que faire si votre site a été impacté ?

Ne sachant pas encore précisément ce qui déclenche les variations, ma prescription est un mix d’antibiotiques s’appliquant à la « qualité » du site, tout autant au contenu qu’à ses liens.

Vérifiez l’état d’indexation des pages. Un fort taux de désindexation peut déjà vous alerter. Vous pouvez croiser ces données avec votre outils de WebAnalytics. Essayez de déterminer si c’est une page, un groupe de pages ou tout le site qui trinque.

Contrôlez les sur-optimisations des outils de navigation (Menus, fil d’ariane, pages « related to »). Evitez de stuffer l’attribut TITLE des liens.

Contrôlez la cohérence du maillage interne. Des pages qui n’ont rien de commun ne devraient pas être liées ensemble.

Ensuite, contrôlez le Duplicate Content interne et faites la chasse aux boiler-plate. Si vous avez trop de pages pour le faire manuellement, alors vous devrez vous équiper d’outils dédiés.

Enfin, identifiez les pages qui ne génèrent aucune visite et décidez si la copie doit être revue soit au niveau de la conception du site, soit au niveau de la conception des contenus, soit au niveau de la communication.

Google masquera-t-il les URLs dans les SERPs ?

JeuxDenfants-530x353

Google teste une nouvelle interface où les résultats ne montreront plus l’URL. C’est ce qu’affirme @tecnonetblog sur twitter, preuve à l’appui :

google-serp-without-url

Je sais que ça fait « prédicateur » mais si cette interface se généralisait, elle pourrait bien marquer la fin du SEO, tel que nous le connaissons.

En effet, la performance d’une stratégie SEO se mesure sur la visibilité gagnée ou perdue, visibilité confondue avec Position dans les SERPs.

Comment allons-nous pouvoir mesurer les performances de nos actions si nous pouvons plus savoir qui est qui dans les résultats de recherche ?

Les outils de scrapping ne risquent-ils pas d’être vite détectés et bloqués s’il faut résoudre chaque réécriture d’url ?

N’oublions pas que Google a déjà masqué dans les outils de webanalytics les mots clés ayant permis de mener le visiteur jusqu’au site web (Le fameux « Not Provided », provoqué par un passage au protocole sécurisé https)

Censure Google Images : Lesquelles ?

seins-censures

Etes vous d’accord pour que Google censure certaines images, un peu trop osées ? Jusqu’à présent vous pouviez facilement désactiver le filtrage sur vos recherches d’images. Hé bien ce ne serait dorénavant plus possible parce que Google a mis en place ce filtre en natif sur sa version anglophone.  C’est ce que rapporte Sam, du blog maniacgeek en ajoutant que « Google n’a pas à dire aux internautes ce qu’ils peuvent regarder ou non« .

Google est chez lui et il fait bien ce qu’il veut.

Appelons ça Censure, Filtrage … Qu’importe finalement. Libre à l’utilisateur de se faire sa propre opinion et d’utiliser un autre moteur s’il le souhaite. Après tout, bing fonctionne très bien !

Google nous prépare-t-il un sale coup ?

GA-not-provided

Les anglo-saxons s’en plaignaient depuis décembre… Depuis le début du mois nous avons nous aussi le droit à une dégradation des données statistiques issues de l’analyse des url de provenance. En effet, Google ne fournit plus les mots clés tapés par ses utilisateurs identifiés et lançant les recherches via leur zone SSL.

Ce qu’il faut retenir : Chez Google, les effets de bord de chaque modification sont longuement pesés et étudiés avant de prendre une décision. Ici, sous prétexte de confidentialité, Google a décidé de nous plus fournir aux webmasters les mots clés qui permettent de trouver leur site web.

Pourtant, ces données, ils les conservent, chez Google.

Si c’était vraiment pour la confidentialité, ils communiqueraient comme des malades là dessus. Faudrait que ça rentre dans la tête de l’utilisateur Lambda, bien loin de nos préoccupations en termes de Positionnement, de long tail et autres gros mots de spécialistes.

Or ce n’est pas le cas. Ils ne communiquent quasiment pas sur ce changement pourtant profond et couteux en ressources (SSL, les gens SSL!!!)

Quelle est la véritable raison ? Qu’est ce qu’ils nous préparent ?

L’API de Yahoo SiteExplorer est morte !

4472404159_d10b07a2d0[1]

Voila, c’était annoncé depuis pas mal de temps mais une page se tourne : Yahoo a définitivement fermé son API SiteExplorer.

Cette API, qui était GRATUITE, permettait de récupérer des infos croustillantes sur un site web, telles que le nombre de liens entrants. C’était vraiment un outil stratégique, mais c’est bel et bien terminé.

Merci à la communauté de stackexchange.com (Faudra lire en english les petits amis  …), qui a trouvé deux candidats pour mettre à jour vos scripts :

L’API de SEOMOZ : http://www.seomoz.org/api

L’API de COMPETE : https://www.compete.com/developer/

photo credit: alancleaver_2000

570$ : Le prix à payer pour que Google déclare un site piraté

Recherche Google sur "Forum voyage"

Et si je vous disais que les référenceurs se divisent en deux camps? Les White Hat (Les gentils) et les Black Hat (Les méchants).Les whites ont des pratiques clean, ils référencent leurs sites en respectant leur prochain, tandis que les blackhat, eux, s’en fichent royalement. Ces derniers préfèrent utiliser des outils plus ou moins automatisés pour exploiter toutes possibilités d’ajouter des liens sur un site distant. Mais voila, leurs outils nuisent réellement aux blogs et forums. Détails :

Continuer la lecture