L'emprise de Google sur Internet commence à être menaçante.

Sa domination comme moteur de recherche est établie. Tous les types de supports de contenus ont ou auront bientôt leur version Google (mail, blog, suite bureautique office, partage de photo, de videos, actualités, etc…). Une immense part de notre "temps de cerveau disponible" va se passer sous les yeux de ses systèmes et offert à ses pubs.

En ouvrant son outil de mesure d'audience Google Analytics à tout gestionnaire de site quel que soit sa taille et son volume de trafic (pour peu qu'il paie un peu de pub AdWords), même lorsque nous quittons les pages applications de Google, ses systèmes continuent d'obtenir des informations sur nos centres d'intérêt et les sites que l'on visite.

Dernière évidence à ce sujet: la gestion de l'historique des recherche (Recherche Personnalisée). Présenté comme un moyen de présenter des résultats qui soient plus pertinents à chaque utilisateur en fonction de ses recherches et choix précédents (comme si les intentions futures d'un être libre pouvaient être prédites par les statistiques, ça fait froid dans le dos), le résultat est plus inquiétant:

Google ausculte vos pratiques à coeur ouvert

Ce que l'on voit à la consultation de cet historique de recherche:

  • chaque jour, les termes recherchés, l'heure de la recherche, la page consultée, son titre sont des informations conservées et parfaitement connues (on aurait pu croire que l'on cliquait le plus souvent à l'insu de Google – même si des redirections étaient parfois présentes)
  • les recherches infructueuses (non suivies de visite) sont identifiées et conservées
  • il est possible de dresser un calendrier détaillé des recherches menées.

Comment échapper à ce 'profiling' ?

On peut imaginer qu'en choisissant l'option adequate, on redeviendra anonyme ? mais comment en être tout à fait sûr ?

Après tout, ces informations peuvent être collectées sans être rattachées à un compte Google, et être tout aussi fructueuses pour Google. 

Que nos actions et nos choix de tous les jours aient de la valeur pour les autres, sans doute. Que cette valeur nous empruntée ? usurpée ? dérobée à notre insu, ce n'est sans doute pas notre souhait. Je lui préfère nettement le principe du tag explicite vers del.icio.us ou un équivallent. Publier son choix est un acte volontaire sans ambiguité: chacun sait qu'il affirme ses choix ainsi en les rendant publics, ou privés s'il le souhaite.

Cela sans compter les rumeurs du rachat de Level3, un des plus réputés fournisseur de bande passante – de liaisons internet en fibre optique de grande capacité en occident – par Google, qui mettrait dans les mains de Google un incroyable volume de données sur nos activités et nos centres d'intérêt et nos contenus.  

Quelle issue ? Rompre d'avec Google est sûrement le moyen le plus fiable.

Et ré-essayer www.exalead.com Exalead,  moteur de recherche remplaçant de Googlecomme alternative au moteur de recherche pour commencer.

Utiliser Firefox et l'extension CustomizeGoogle avec les bonnes options peut être une solution d'attente, vraiment suffisante ? Quelle est votre opinion ?.

Average Rating: 4.5 out of 5 based on 211 user reviews.

www.exalead.com s'est refait une beauté avec une interface plus simple et moins révolutionnaire. Pour l'utiliser comme moteur de recherche par défaut dans votre navigateur Mozilla Firefox ou Seamonkey, il faut maintenant aller chercher le plug-in ici

www.exalead.com est moteur de recherche d'origine française qui défie Google avec un index de maintenant plus de 8 milliards de pages et surtout des stratégies de classement des résultats pertinents souvent bien plus efficaces. Il utilise notamment des algorithmes d'identification de concepts implicites et propose à l'utilisateur ses reformulations de sa recherche initiale.

Il est issu de l'expertise de François Bourdoncle, chercheur ayant eu l'occasion de travailler pour alatavista.com au moment où ce moteur dominait encore le marché. 

Average Rating: 4.9 out of 5 based on 250 user reviews.

Le monde des moteurs de recherche est finalement en ébullition en cette année 2006. Alors que Google domine partout et encore plus en Europe qu'aux Etats-Unis, les concurrents affutent leurs nouvelles versions pour contrer cette domination très nette (80% du trafic provenant des moteurs de recherche) et s'adapter aux nouveaux usages d'internet (blog, web mobile, etc..).

Cela s'accompagne de bouleversements bien inhabituels dans le monde autrefois fort paisible des robots d'indexation.

Voilà que MSN, Yahoo, Google ou encore Exalead changent la signature (le 'user-agent') de leur robot. Quelques développements "d'optimisation SEO" vont s'en trouver perturbés, à n'en pas douter !

Pour suivre l'apparition de ces nouveaux 'user-agent's, je vous suggère un site bien pratique dans le monde des moteurs de recherche francophones : il liste tous les user-agent connus de robots qui le visitent (tous ceux qui demandent le fichier 'robots.txt') et indique ceux qui sont encore actifs en précisant leur date de dernière visite.

On y trouve notamment les derniers nés de MSN :

msnbot-media/1.0 (+http://search.msn.com/msnbot.htm)
msnbot-NewsBlogs/1.0 (+http://search.msn.com/msnbot.htm)
msnbot-Products/1.0 (+http://search.msn.com/msnbot.htm)
msnbot/0.9 (+http://search.msn.com/msnbot.htm)
msnbot/1.0 (+http://search.msn.com/msnbot.htm)

Ou encore la relève du français Exalead:

Exabot/2.0
Exabot/3.0

Pour la nouvelle version d'Exalead 

Average Rating: 4.8 out of 5 based on 227 user reviews.

Depuis fin Juin 2006, c'est l'effervescence parmi les responsables positionnement et référencement.

Le trafic en provenance du vénéré, tout puissant et très obscur Google oscille en grandes vagues de haut et bas, surtout vers le bas (enfin ce sont ceux-là qui s'en plaignent).

Et ce n'est pas la faute aux internautes partis en vacances. Cela se reflète clairement en faisant un graphique de l'évolution du positionnement d'un site pour une ensemble donné d'expressions de recherche.

Jugez-en plutôt:

évolution sur un mois des positions sur Google france d'un site statique non modifié sur toute la durée

Voilà que du 17 au 19 juillet 2006, les positions ont atteint un plancher inédit, alors qu'après le correctif du 11 juillet elles ont atteint des sommets !!? Le 9 juillet marque une sorte de trou d'air inexplicable (il manque des mesures du 4 au 8 juillet, malheureusement, pour cause de brêves vacances).

Les sites gagnants de cette nouvelle forme de Google Dance sont-ils plus pertinents et méritent-ils leur place ? Pas vraiment à mon sens.

J'observe même un phénomène étrange : certaines requêtes de 3 mots peuvent être premières (n°1 !, pas juste la première page, et c'est légitime), et en ajoutant un quatrième mot tout aussi fréquent dans les pages du site en question, pas moyen de trouver le site dans les 400 premiers résultats !! 

Google clame à l'envie sa mission d'organiser et rendre accessible le savoir et l'information. C'est un pouvoir énorme, maintenant dans les mains de financiers. Si ses arbitrages opérés dans le classement des résultats sont de plus en obscurs, et surtout sont capables de basculer du tout au tout d'un jour à l'autre, cela crée un insécurité extrêment néfaste à tout l'écosystème Internet, un peu comme un tremblement de terre.

Est-ce pour nous pousser encore un peu plus vers le référencement payant, et les laisser les plus riches drainer le plus d'internautes ?

Vos commentaires et réactions sont les bienvenus.

PS: la mesure de position est faite avec Advanced Web Ranking

Average Rating: 4.4 out of 5 based on 295 user reviews.

Le journal du net présente une intéressante synthèse du travail de référencement naturel à l'heure où l'on parle surtout de l'aubaine des mots clefs sponsorisés.

Et cela n'a pas grand chose à voir avec l'application de prétendues recettes d'arrière cuisine plus ou moins recommendables pour tromper les moteurs. Mais plutôt une réflexion de fond sur le vocabulaire d'un domaine, la connaissance du public et des formulations qu'il utilise.

Et une démarche rentable à long terme, durable en l'entretenant un minimum, alors que les mots clefs sponsorisés apportent des résultats immédiats, certes, mais coûtent, et coûterons, de plus en plus cher. 

Ce qui m'étonne tout de même c'est la stratégie du "double entonnoire" qui aboutirait à une vingtaine d'expressions seulement. Pourquoi ne pas positionner et valoriser sur bien plus de termes ? Les requêtes des internautes ne comptent-elles pas de plus en plus de termes, de plus en plus variés ?

Autre sujet d'étonnement: ces agences spécialisées auraient des sources particulièrement bien informées, inaccessibles aux internautes, pour avoir une connaissance statistique des termes utilisés par les internautes dans leurs recherches ! Lesquelles ?

Vous n'auriez pas une idée ?

Une suggestion : Je me demande bien ce que les annonceurs en ligne et les sociétés de gestion de campagnes de mots clefs de leurs stats de clicks, qui toutes contiennent, ne serait-ce que la potentialité de connaître les mots clefs utilisés par les internautes (via le referer) ?

Average Rating: 4.7 out of 5 based on 178 user reviews.

 

En cette année d’effervescence en faveur des mots clefs sponsorisés, que reste-t-il du référencement naturel ?
Car si les mots clés payants ne requièrent ni optimisation de site, ni réflexion sur les publics visés et le vocabulaire utilisé, ils sont tout de même voués à être de plus en plus coûteux du fait des entrants toujours plus nombreux sur ce système et des budgets croissants consacrés à la pub sur internet maintenant qu’elle offre une alternative doublement crédible à pub ‘à l’impression’ telle que la pub TV ou la presse: elle touche presque plus de lecteurs, et bien des éléments sont mesurables!.
Comme les outils de calcul de ROI ont le vent en poupe, combien d’entre-eux n’oublient pas (ne négligent pas ?) de prendre en compte le référencement naturel dans le calcul ?
A ma grande surprise, Google Analytics ne néglige pas tout à fait la question. Ou plutôt, il propose un cheminement un rien laborieux pour comparer l’efficacité des termes organiques vs. sponsorisés. On aimerait voir d’un coup d’oeil les termes moins efficaces en liens sponso qu’en résultats naturels, mais c’est impossible.
Il fait également l’impasse sur la gestion des coûts de campagne sur d’autres réseaux que Google AdWords. Et sur le coût du référencement naturel… Mais ce n’est pas un coût au clic, plutôt un investissement initial avec un accompagnement plus ou moins intense pour continuer de faire fructifier l’investissement réalisé.
En revanche, du côté des outils de gestion de campagnes de mots clef sponsorisés proposées par les sociétés spécialisées en Search Marketing pour donner des « tableaux de bord » de leurs campagnes à leurs clients, on néglige gaillardement de mesurer les apports en référencement naturel.
Et il faut bien dire qu’il n’est pas si simple de configurer tous ces outils pour avoir des données mesurées cohérentes, séparant les 2 types d’origine, et suffisamment fines pour prendre les décisions et les arbitrages créateurs de valeur.
Ainsi, quels sont les résultats naturels cannibalisés par les mots clefs sponsorisés ? Quelles sont les expressions de recherche émergentes détectées de part et d’autre à ré-injecter d’autre part pour étendre l’audience du site ?
Connaissez-vous des outils proposant une analyse de ce type ? En sentez-vous le besoin ?
Une problématique qui semble d’actualité puisqu’on la retrouve sur le journal du net et sur quelques blogs tels que Carnets référencement.

Average Rating: 4.7 out of 5 based on 176 user reviews.