Comment prendre le pouvoir sur les méga-calculateurs et leurs algorithmes ?

M. Dominique Cardon, sociologue français, professeur à Sciences Po/Medialab, nous invite dans son livre « A quoi rêvent les algorithmes » à mieux comprendre l’univers des mesures du web.

Il y livre une analyse  sur les techniques de mesure employées et surtout comment ses méga-calculateurs sont en train de s’immiscer, de plus en plus intimement, dans la vie des internautes.

M. Cardon a enquêté sur les «  créateurs des algorithmes » ces informaticiens, ces data scientists et les plates-formes qui les emploient.

Puis, Il a étudié, disséqué les algorithmes du web et les a classé en 4 familles :

  • Popularité
  • Autorité
  • Réputation
  • Prédiction

M. Cardon nous invite à ouvrir la boite noire et prendre la mesure des enjeux économiques et politiques de chacune de ces  familles d’algorithmes, de connaître leurs écosystèmes ainsi que la typologie des données, mais aussi les techniques de calcul qui les dissocient et les critiques qui leurs sont attachées.

Ces familles évoluent, cohabitent et se complètent mais surtout elles partagent toutes la même finalité : définir la bonne méthode pour organiser la visibilité de l’information. 

Popularité

La popularité des sites est évaluée depuis des décennies à l’aide du traditionnel « nombre de clics » du « visiteur unique ».

M. Cardon détaille les deux méthodes pratiquées de nos jours :

  • La mesure centrée-site « Site-Centric »  qui mesure la fréquentation d’un site à l’aide notamment des logs* ou des marqueurs tag*.
  • La mesure centrée-utilisateur « User-centric » qui repose sur le suivi des navigations d’un panel d’internautes qualifiés (âge, genre, revenu..) en nichant sur leur ordinateur les fameux cookies. Cette mesure a vocation à évoluer vers  le « Customer-centrics » qui propose un panel par profil d’internautes défini selon les comportements sur la toile.

* Log : Un fichier log est un fichier journal au format texte qui pour chaque page vue enregistre un certain nombre d’informations techniques générées.
* Tag : Ce sont des étiquettes, marqueurs, libellés de mots clés qui permettent de définir, classer puis rechercher des documents, des favoris, des images.

Cette méthode reste-t-elle fiable ?

M. Cardon qualifie cette famille comme « l’imprécise popularité des clics » et explique qu’il faut prendre en compte que de nos jours l’information sur le web est de plus en plus abondante et incontrôlée. Par conséquent, la mesure de la popularité  d’un site au travers d’une seule unité de mesure comme le nombre de clics est devenue non seulement  imprécise mais aussi de plus en plus contestée.

L’évolution constante des techniques d’optimisation que pratiquent les  webmasters et la fraude aux clics de certains éditeurs qui emploient notamment des robots-cliqueurs ont particulièrement dégradé la qualité des résultats de cette mesure de la popularité.

M. Cardon conclue que l’enjeu de cette famille d’algorithmes est de garantir une meilleure fiabilité en imaginant de nouvelles méthodes de mesure.  Mais c’est sans compter sur les pionniers du web qui opposent la mesure de la popularité à celle de l’autorité.

Autorité

Cette famille d’algorithmes a pour fonction de hiérarchiser l’autorité des sites à partir du nombre de liens hypertextes reçus venant de sites qui ont eux aussi reçu un certain nombre de liens. La méthode est de mesurer la qualité des documents publiés ou des personnes (sans prise en compte de leur statut social) en intégrant l’autorité qu’ils ont acquise au travers de jugement d’autres internautes.

M. Cardon parle à juste titre de la mesure de la « force sociale de la page ».

Il précise que le classement de l’information la plus visible, n’est plus la plus vue mais celle avec laquelle l’internaute a choisi d’interagir en adressant le plus de liens. Dans l’univers du web, ce principe est appelé « intelligence collective » ou « sagesse des foules ».

M. Cardon rappelle que cette méthode a aussi son côté utopique car le marché florissant du SEO (Search Engine Optimization) propose de nombreuses techniques pour améliorer le classement d’un site et parfois produisent une autorité dite artificielle. Google est à pied d’œuvre et modifie régulièrement ses algorithmes pour déjouer  les sites qui optimisent entre autre leurs nombres de liens. M. Cardon parle du jeu du chat et de la souris.

La mesure d’autorité est-elle aussi critiquée ?

M. Cardon précise que deux critiques sont faites : l’effet d’exclusion et de centralisation et l’effet censitaire. Cette mesure  favorise en effet les plus populaires qui monopolisent l’attention sur le web ainsi que les sites qui ont accepté de payer. A contrario, elle ignore les publications sans lien hypertexte et les internautes occasionnels ou peu participatifs sur les réseaux sociaux.

L’évolution attendue de ces algorithmes est de combiner la réputation numérique de l’internaute et la qualité du contenu de l’information publiée.

La réputation

Cette mesure de la réputation se développe avec l’incroyable multiplication et puissance des réseaux sociaux. Selon M. Cardon, « C’est la mesure du pouvoir que détient l’internaute de voir les autres relayer ses messages sur le réseau »

Ces algorithmes mesurent l’ampleur du rayonnement social des individus et des marques, en calculant le volume de « like »,  de «tweet » et « retweet », de « vues », de commentaires.

Elles intègrent dans leurs méthodes de calcul un ratio entre le nombre de personnes que l’on connait et le nombre de personnes dont on est connu. C’est ainsi que le web social (Facebook, Twitter…) propose des mini compteurs qui comptabilisent le nombre de Fans, de Followers…, des « glorimètres » que M. Gabriel Tarbe envisageait déjà il y a  plus d’un siècle.

Dans cet univers de compteurs et de chiffres, M. Cardon précise que rien n’interdit à l’internaute ou à la marque d’agir sur ces classements, de fabriquer ou façonner sa réputation et il le démontre en mentionnant comment et à quelle heure il faut envoyer un tweet pour être retweeté. Cette mesure de la réputation  rend les internautes eux aussi « calculateurs ».

Des critiques de plus en plus vives !

Comme l’explique M. Cardon, il existe un écart considérable entre ce que les internautes prétendent faire sur les réseaux sociaux et ce qu’ils font réellement. Ce décalage déroute les calculateurs qui tentent de donner du sens à ce « grand bazar » de données numériques.

Faut-il continuer à interpréter ce que disent les internautes ? Ou plutôt suivre leurs traces ? 

Prédiction

Les algorithmes dits « prédictifs » ciblent et collectent, en toute discrétion, nos données personnelles et les traces que nous laissons sur Internet. Puis, elles calculent et calculent encore et encore en utilisant des techniques de statistiques spécifiques comme  le machine learning.

Les algorithmes apprennent de nous et  établissent  des corrélations avec des profils  d’internautes puis de façon « probabiliste » selon M. Cardon nous  proposent d’adopter un comportement similaire.

Il démontre, à l’appui de plusieurs exemples, l’ampleur de cette tentative de manipulation de notre comportement dont la plus flagrante est pratiquée par le monde opaque de la publicité sur internet.

Ce secteur très fructueux cultive le don de l’ubiquité avec ces fameux espions nichés dans notre ordinateur : les cookies, les cookies tiers pilotés avec une surprenante facilité par les ad-network.

M. Cardon détaille les ingrédients de cette recette :

  • Extorquer notre consentement pour la récolte de nos données personnelles et de nos traces laissées sur le web ;
  • Profiter du laxisme  des législations ;
  • Rédiger des CGU (Conditions Générales d’Utilisations) illisibles et donc acceptées sans jamais être lues et comprises.

Pour prendre conscience des multitudes trajectoires que prennent nos données personnelles, M. Cardon invite les lecteurs à découvrir l’ampleur du phénomène au travers de COOKIEVIZ, un outil intéressant proposé par la CNIL.

[COOKIEVIZ] Découvrez la face cachée de la navigation web ! CNIL

Une nouvelle famille déjà critiquée

M . Cardon soulève dans son livre que les calculs de corrélation et les prédictions enferment les internautes dans des « îlots comportementaux ».

Il démontre les  problèmes éthiques et la reproduction « innocente » d’inégalités sociales qu’ils génèrent. Un vaste mouvement de méfiance de l’internaute se développe. Cela  se mesure notamment par l’activation de la fonctionnalité proposée par les navigateurs permettant de bloquer  l’intrusion des  cookies.

M. Cardon conclut que cette guerre du traçage vient tout juste de commencer, qu’il  est trop tard pour reculer et que de nombreuses critiques s’élèvent sur la mesure prédictive. Il insiste sur l’urgence d’imposer des règles qui doivent se concentrer plus particulièrement sur le respect du consentement des internautes.

« Passer en manuel » pour garder la maitrise

M. Cardon constate que fuir le monde de la connexion, c’est tentant !

Surtout si nous analysons exclusivement internet sous l’angle des algorithmes et sur le fait que les internautes se plient systématiquement à leurs volontés et à leurs prédictions. Comme le précise M. Cardon l’emprise des algorithmes n’a qu’un faible impact sur le quotidien de l’internaute toujours en capacité de décoder ce qu’on lui propose.

M. Cardon invite l’internaute qui est en nous à trouver sa propre stratégie,  comme de « passer en manuel » en développant sa culture de la critique,  en s’informant régulièrement sur la manière dont les algorithmes « calculent »,  de manière à ajuster ses comportements d’internaute en conséquence et garder la maitrise de ses données personnelles.

Se donner les moyens de reprendre le pouvoir dans la société des calculs.

« A quoi rêvent les algorithmes »  est publié aux éditions SEUIL et disponible en format numérique.

KATLECH WOL

Menu Principal