Google n'est pas très «content»

par Camille Gévaudan
publié le 1er mars 2011 à 14h23

À première vue, le communiqué de Google peut paraître un poil flippant : la star des moteurs de recherche, qui s'est toujours targuée de respecter une neutralité absolue entre tous les sites indexés par son algorithme top-secret, chercherait désormais à favoriser «les sites de haute qualité» au détriment des sites «pas très utiles» ? Mais de quel droit pourraient-ils porter un jugement de valeur sur des des adresses URL dont ils ne sont pas censés regarder le contenu ? Bien que le billet de blog en question soit assez flou pour laisser la porte ouverte à des interprétations inquiétantes, Google semble cibler, en réalité, les «fermes de contenus» qui produisent du texte à la chaîne pour squatter les résultats de recherche, ou copient le contenu d'autres sites Internet.

Le content farming , comme on l'appelle en anglais, a déjà été explicitement dénoncé par Google il y a quelques semaines. «Le spam web correspond à ces liens non pertinents que vous voyez dans les résultats de recherche , expliquait alors Matt Cutts, ingénieur star de l'algorithme de recherche chez Google. Ils apparaissent quand les sites trichent pour améliorer leur indexation dans Google ou violent les recommandations des moteurs de recherche.»

Techniquement parlant, les sites ici pointés du doigt n'ont ni «triché» ni «violé» aucun règlement juridiquement valable. Certains pompent des extraits de texte provenant d'autres sites pour s'en approprier une partie du trafic. En France, on retrouve notamment ce genre de pratique chez Wikio ou Hellocoton (les liens montrent un exemple de la manière dont ils «empruntent» un article d'Ecrans.fr).

Les «fermes de contenus», quant à elles, se contentent d'exploiter au maximum les règles de fonctionnement d'un moteur de recherche, pour en tirer le meilleur parti. Elles repèrent automatiquement les sujets recherchés par les internautes, pondent du contenu au kilomètre et des pages par millions, et embauchent des spécialistes du référencement (SEO, pour Search Engine Optimization , optimisation de moteur de recherche) pour s'assurer que les textes produits, souvent de piètre qualité, soit facilement trouvables sur Internet.

Liste d'articles à écrire, calquée sur les sujets les plus recherchés par les internautes, sur Wikio Experts

Rien n'est laissé au hasard. Comme l'explique Olivier Duffez du site WebRankInfo , spécialiste français du référencement, le système repose sur quatre «briques» : le code informatique qui détecte les requêtes en vogue, des rédacteurs volontaires qui en font des articles, une plateforme qui les publie, et des outils d'analyse du trafic pour améliorer le fonctionnement du tout. La société américaine Demand Media produit ainsi près de 4000 articles quotidiens à faible valeur ajoutée, qui envahissent les résultats de recherche Google aux États-Unis. En France, le portail Wikio a récemment lancé Les Experts.com

, qui (sous-)paye des internautes volontaires -- de 2 à 15 euros par article -- pour bâcler quelques lignes sur des sujets à fort potentiel de clics («comment choisir sa béquille de moto», «les plus belles photos de calendrier de Jessica Alba»...). Ce genre de site est construit pour «trouver un rédacteur pour chaque article, le plus rapidement et le moins cher possible , analyse Olivier Duffez. La ligne éditoriale de ces sites est dictée par la demande (supposée) des consommateurs ! Autant dire qu'on peut fortement s'éloigner du journalisme.» Avec un maximum de 400 mots par article et une rémunération si dérisoire, la qualité est rarement au rendez-vous, en effet.

Alors certes, les pages d'aide de Google avertissent les webmasters

que ces pratiques sont déconseillées car peu morales. Mais dans un business aussi juteux -- le trafic d'un site Internet se monnaye par les publicités affichées sur ses pages --, qui se soucie d'éthique ? Le mois dernier, Demand Media est entré en Bourse avec une valorisation à 1,26 milliards d'euros.

L'extension Personal Blocklist permet de créer, sur son propre ordinateur, une liste noire des sites peu pertinents

Pour «améliorer l'expérience de recherche» , Google a fait un premier pas mi-février avec la création de Personal Blocklist , une extension pour le navigateur Chrome. Les internautes qui installent ce petit plug-in peuvent choisir de bloquer manuellement les sites qui apparaissent dans les résultats de recherche Google mais qu'ils jugent non pertinents. La liste noire ainsi créée est «personnelle» : elle limite l'épuration des résultats de recherche au seul ordinateur de l'utilisateur concerné.

Mais cette phase de test à un niveau local a été de courte durée. Après quelques tests ni vus ni connus fin janvier, Google a intégré ce week-end des mesures de lutte contre le «spam web» à son algorithme de recherche, entraînant un déclassement de certains sites visible par l'intégralité des internautes. Opérationnel uniquement aux États-Unis pour le moment, ce changement «influe de manière notable sur 11,8% des requêtes» et opère un ajustement à double sens : «la mise à jour dégrade le classement des sites peu qualitatifs -- qui ont une faible valeur ajoutée pour les utilisateurs, copient du contenu sur d'autres sites ou sont simplement peu utiles -- et valorise les sites de qualité -- qui fournissent un contenu original et des informations du type recherche, analyses approfondies...»

L'avis personnel d'Amit Singhal et Matt Cutts -- rédacteurs du billet de blog -- sur ce qu'est un «contenu de qualité» peut paraître superflu et malvenu car il appartient aux utilisateurs du moteur de recherche de choisir le meilleur résultat à leur requête spécifique, et celui-ci ne sera pas forcément une recherche universitaire ou une enquête journalistique. Mais dans les faits, il semble que les victimes du nouvel algorithme soient bien limitées aux copieurs et aux fermes de contenus. La société Sistrix, spécialiste de l'analyse de mots-clés, a fait une première évaluation des sites les plus lésés en comparant leur positionnement en réponse à certains mot-clés, avant et après le changement d'algorithme de Google. Parmi les 25 premiers, certains ont perdu jusqu'à 94% de visibilité. Le graphique ci-dessous montre que Malaho.com, classé 14e des grands perdants, a vu nombre de ses articles relégués en 8e, 9e ou même 10e page des résultats Google -- autant dire qu'ils sont devenus invisibles -- alors qu'ils étaient encore très bien placés la semaine dernière.

Le célèbre Demand Media compte un de ses sites-fils (Trails.com) dans cette top-liste, mais affirme tout de même qu'il n'a «pas constaté d'impact net sur [son] activité Contenus & Médias» , ce qui est bien normal puisqu'il crée du contenu «utile et original» , et ne craint donc pas le changement de cap de Google, qu'il «applaudit» . Son site eHow, regorgeant de conseils pratiques sous forme de tutoriaux ( «how to» ), parfois en vidéo, a d'ailleurs gagné 15% de visibilité et un certain trafic :

D'autres géants du web collaboratif y ont gagné : YouTube, Facebook, Instructables, eBay... Pas forcément ceux que l'on soupçonnerait de produire du contenu «de haute qualité». Mais «originaux», oui, sans doute...

Lire les réactions à cet article.

Pour aller plus loin :

Dans la même rubrique

Les plus lus