Archives de la catégorie : Actu search

Google masquera-t-il les URLs dans les SERPs ?

JeuxDenfants-530x353

Google teste une nouvelle interface où les résultats ne montreront plus l’URL. C’est ce qu’affirme @tecnonetblog sur twitter, preuve à l’appui :

google-serp-without-url

Je sais que ça fait « prédicateur » mais si cette interface se généralisait, elle pourrait bien marquer la fin du SEO, tel que nous le connaissons.

En effet, la performance d’une stratégie SEO se mesure sur la visibilité gagnée ou perdue, visibilité confondue avec Position dans les SERPs.

Comment allons-nous pouvoir mesurer les performances de nos actions si nous pouvons plus savoir qui est qui dans les résultats de recherche ?

Les outils de scrapping ne risquent-ils pas d’être vite détectés et bloqués s’il faut résoudre chaque réécriture d’url ?

N’oublions pas que Google a déjà masqué dans les outils de webanalytics les mots clés ayant permis de mener le visiteur jusqu’au site web (Le fameux « Not Provided », provoqué par un passage au protocole sécurisé https)

Censure Google Images : Lesquelles ?

seins-censures

Etes vous d’accord pour que Google censure certaines images, un peu trop osées ? Jusqu’à présent vous pouviez facilement désactiver le filtrage sur vos recherches d’images. Hé bien ce ne serait dorénavant plus possible parce que Google a mis en place ce filtre en natif sur sa version anglophone.  C’est ce que rapporte Sam, du blog maniacgeek en ajoutant que « Google n’a pas à dire aux internautes ce qu’ils peuvent regarder ou non« .

Google est chez lui et il fait bien ce qu’il veut.

Appelons ça Censure, Filtrage … Qu’importe finalement. Libre à l’utilisateur de se faire sa propre opinion et d’utiliser un autre moteur s’il le souhaite. Après tout, bing fonctionne très bien !

Google nous prépare-t-il un sale coup ?

GA-not-provided

Les anglo-saxons s’en plaignaient depuis décembre… Depuis le début du mois nous avons nous aussi le droit à une dégradation des données statistiques issues de l’analyse des url de provenance. En effet, Google ne fournit plus les mots clés tapés par ses utilisateurs identifiés et lançant les recherches via leur zone SSL.

Ce qu’il faut retenir : Chez Google, les effets de bord de chaque modification sont longuement pesés et étudiés avant de prendre une décision. Ici, sous prétexte de confidentialité, Google a décidé de nous plus fournir aux webmasters les mots clés qui permettent de trouver leur site web.

Pourtant, ces données, ils les conservent, chez Google.

Si c’était vraiment pour la confidentialité, ils communiqueraient comme des malades là dessus. Faudrait que ça rentre dans la tête de l’utilisateur Lambda, bien loin de nos préoccupations en termes de Positionnement, de long tail et autres gros mots de spécialistes.

Or ce n’est pas le cas. Ils ne communiquent quasiment pas sur ce changement pourtant profond et couteux en ressources (SSL, les gens SSL!!!)

Quelle est la véritable raison ? Qu’est ce qu’ils nous préparent ?

L’API de Yahoo SiteExplorer est morte !

4472404159_d10b07a2d0[1]

Voila, c’était annoncé depuis pas mal de temps mais une page se tourne : Yahoo a définitivement fermé son API SiteExplorer.

Cette API, qui était GRATUITE, permettait de récupérer des infos croustillantes sur un site web, telles que le nombre de liens entrants. C’était vraiment un outil stratégique, mais c’est bel et bien terminé.

Merci à la communauté de stackexchange.com (Faudra lire en english les petits amis  …), qui a trouvé deux candidats pour mettre à jour vos scripts :

L’API de SEOMOZ : http://www.seomoz.org/api

L’API de COMPETE : https://www.compete.com/developer/

photo credit: alancleaver_2000

570$ : Le prix à payer pour que Google déclare un site piraté

Recherche Google sur "Forum voyage"

Et si je vous disais que les référenceurs se divisent en deux camps? Les White Hat (Les gentils) et les Black Hat (Les méchants).Les whites ont des pratiques clean, ils référencent leurs sites en respectant leur prochain, tandis que les blackhat, eux, s’en fichent royalement. Ces derniers préfèrent utiliser des outils plus ou moins automatisés pour exploiter toutes possibilités d’ajouter des liens sur un site distant. Mais voila, leurs outils nuisent réellement aux blogs et forums. Détails :

Continuer la lecture