Aurélien Morillon - Consultant Formateur professionnel webMarketing

Actu search

-

Google teste une nouvelle interface où les résultats ne montreront plus l’URL. C’est ce qu’affirme @tecnonetblog sur twitter, preuve à l’appui :

google-serp-without-url

Je sais que ça fait « prédicateur » mais si cette interface se généralisait, elle pourrait bien marquer la fin du SEO, tel que nous le connaissons.

En effet, la performance d’une stratégie SEO se mesure sur la visibilité gagnée ou perdue, visibilité confondue avec Position dans les SERPs.

Comment allons-nous pouvoir mesurer les performances de nos actions si nous pouvons plus savoir qui est qui dans les résultats de recherche ?

Les outils de scrapping ne risquent-ils pas d’être vite détectés et bloqués s’il faut résoudre chaque réécriture d’url ?

N’oublions pas que Google a déjà masqué dans les outils de webanalytics les mots clés ayant permis de mener le visiteur jusqu’au site web (Le fameux « Not Provided », provoqué par un passage au protocole sécurisé https)

-

Etes vous d’accord pour que Google censure certaines images, un peu trop osées ? Jusqu’à présent vous pouviez facilement désactiver le filtrage sur vos recherches d’images. Hé bien ce ne serait dorénavant plus possible parce que Google a mis en place ce filtre en natif sur sa version anglophone.  C’est ce que rapporte Sam, du blog maniacgeek en ajoutant que « Google n’a pas à dire aux internautes ce qu’ils peuvent regarder ou non« .

Lire la suite »

-

Peu de temps après avoir renommé l’Android Market « Google Play », le géant de Mountain View intègre un nouveau lien « Play » au menu d’entête de son moteur de recherche. Doit-on prévoir un probable ajout d’applications Android en universal search ?

-

Les anglo-saxons s’en plaignaient depuis décembre… Depuis le début du mois nous avons nous aussi le droit à une dégradation des données statistiques issues de l’analyse des url de provenance. En effet, Google ne fournit plus les mots clés tapés par ses utilisateurs identifiés et lançant les recherches via leur zone SSL.

Ce qu’il faut retenir : Chez Google, les effets de bord de chaque modification sont longuement pesés et étudiés avant de prendre une décision. Ici, sous prétexte de confidentialité, Google a décidé de nous plus fournir aux webmasters les mots clés qui permettent de trouver leur site web.

Pourtant, ces données, ils les conservent, chez Google.

Si c’était vraiment pour la confidentialité, ils communiqueraient comme des malades là dessus. Faudrait que ça rentre dans la tête de l’utilisateur Lambda, bien loin de nos préoccupations en termes de Positionnement, de long tail et autres gros mots de spécialistes.

Or ce n’est pas le cas. Ils ne communiquent quasiment pas sur ce changement pourtant profond et couteux en ressources (SSL, les gens SSL!!!)

Quelle est la véritable raison ? Qu’est ce qu’ils nous préparent ?

-

Le blogger anglophone  Andrew Girdwood met le doigt sur une nouvelle fonctionnalité observée dans les pages de résultats de Google. Elle permettrait à un utilisateur de bloquer une publicité adWords diffusée pour un domaine.

Andrew se demande d’ailleurs si le taux de blocage impactera le quality score.

Avez vous déjà vu cette fonctionnalité en France ? Quel est votre avis ?

-

Suite à la mise à jour de Panda, la donne a changé pour les sites de contenus. Ceux qui abusaient des agrégations ont subit de plein fouet les Googlesques sanctions, qui ont eu un impact plus étendu qu’un simple déclassement. Derrière un déclassement, il y a des pertes financières et des licenciements. C’est en tout cas ce que tente de démontrer un sondage réalisé par le célèbre eZine anglophone Search Engine RoundTable.

Ce qu’on ne connait pas (encore) en revanche, c’est la portée économique qu’aura Panda sur les autres entreprises, celles qui ont misé sur du contenu unique et de qualité. Ont-elles embauché, prévoient-elles de le faire ?

Affaire à suivre ..

Source : Chris Hédé @ MoteurZine

-

Voila, c’était annoncé depuis pas mal de temps mais une page se tourne : Yahoo a définitivement fermé son API SiteExplorer.

Cette API, qui était GRATUITE, permettait de récupérer des infos croustillantes sur un site web, telles que le nombre de liens entrants. C’était vraiment un outil stratégique, mais c’est bel et bien terminé.

Merci à la communauté de stackexchange.com (Faudra lire en english les petits amis  …), qui a trouvé deux candidats pour mettre à jour vos scripts :

L’API de SEOMOZ : http://www.seomoz.org/api

L’API de COMPETE : https://www.compete.com/developer/

photo credit: alancleaver_2000

-

Et si je vous disais que les référenceurs se divisent en deux camps? Les White Hat (Les gentils) et les Black Hat (Les méchants).Les whites ont des pratiques clean, ils référencent leurs sites en respectant leur prochain, tandis que les blackhat, eux, s’en fichent royalement. Ces derniers préfèrent utiliser des outils plus ou moins automatisés pour exploiter toutes possibilités d’ajouter des liens sur un site distant. Mais voila, leurs outils nuisent réellement aux blogs et forums. Détails :

Lire la suite »

-

Un rédacteur web situé en France coûte cher. Pour percer il lui faut donc un haut niveau de technicité pour justifier la différence de prix avec un article rédigé par un rédacteur tunisien ou malgache dont le cout mensuel varie de 350€ à 500€ selon le niveau de français.

Lire la suite »

-

(vu sur Abondance.com) Selon le magazine AllthingsD, Google serait prêt à racheter Groupon pour 3 milliards de dollars.

L’annonce locale et géolocalisée représente un marché titanesque de plus de 100 millards de dollars par an. Google, qui  évolue déjà sur ce secteur depuis plusieurs années, renforcerait alors son offre et saperait l’herbe sous le pied de Yahoo qui aurait déjà émis le souhait de racheter cette même société.

contact
Powered by "To Do List Member"