Haut

Enquêter sur les algorithmes, le jeu en vaut la chandelle

Depuis une dizaine d’années, l’ampleur de la révolution numérique a poussé les journalistes à faire des algorithmes un objet d’enquête à part entière. Mais que reste-t-il de ces enquêtes ? Sur quoi ont-elles débouché ?

“Tinder a peut-être remplacé son Elo score par quelque chose de cent fois pire. Preuve que lorsqu’on enquête sur des algorithmes, il faut avoir la victoire modeste”, déclarait Judith Duportail, journaliste indépendante et auteure de L’amour sous algorithme, lors d’une masterclass à l’IJBA le 6 octobre 2020.

Pourtant, après ses révélations sur le fonctionnement de l’algorithme de Tinder, Judith Duportail a de quoi être fière. Elle a pu constater que l’entreprise avait modifié son algorithme et supprimé ce fameux Elo score. Pour rappel, ce classement, hérité des échecs, consiste à vous faire gagner beaucoup de points si vous gagnez contre un joueur bien classé, et vous en faire perdre beaucoup si vous perdez contre un joueur mal classé.

Autrement dit, les utilisateurs de Tinder étaient notés en fonction de critères qu’ils ne connaissaient pas et qui déterminaient ensuite les profils qui leur étaient présentés. Malgré tout, la journaliste peut se féliciter. Peu d’entreprises privées suppriment ou modifient leurs algorithmes à la suite d’une enquête. 

Les pouvoirs publics reviennent aussi sur leurs pas

En ce qui concerne l’utilisation des algorithmes, le secteur public n’est pas en reste. Cet été, au Royaume-Uni, les élèves britanniques devaient passer leur “A-Levels”, l’équivalent du baccalauréat. Pour cause de Covid-19, les examens n’ont pu avoir lieu. Le DoE (Department of Education, le ministère de l’éducation outre-Manche) a donc décidé de faire appel à un algorithme pour déterminer les résultats des élèves. 

Problème : 40 % des futurs étudiants ont vu leur note baisser d’un ou plusieurs niveaux selon les révélations du Guardian. “L’algorithme prenait trop en compte les résultats obtenus par les établissements les années précédentes. Les élèves venant d’écoles, historiquement bonnes, étaient favorisés”, raconte Guénaël Pépin, journaliste numérique à Contexte

Après deux semaines de débat et de manifestants criant “Fuck algorithm”, le DoE a finalement décidé de prendre uniquement en compte les notes prédictives des professeurs pour établir les résultats des “A-Levels”. A la trappe l’algorithme. 

Peu à peu l’algorithme est devenu un sujet d’intérêt général

Les enquêtes sur les “systèmes de prise de décision automatisée” aboutissent rarement à de telles voltefaces de la part des acteurs mis en cause. Comme l’explique Nicolas Kayser-Bril, journaliste à AlgorithmWatch qui a collaboré avec Judith Duportail pour son enquête sur Instagram, un travail de vérification sur le long terme est toujours nécessaire quand on enquête sur des algorithmes : “C’est impossible de savoir si ce qui a été révélé dans un article est valable six mois plus tard, c’est pour ça qu’on essaye au mieux de vérifier nos hypothèses sur le long terme. Mais ça demande beaucoup de moyens.

A en croire Nicolas Kayser-Bril, enquêter sur ces sujets serait parfois décourageant. Pourtant, le travail des journalistes sur ces questions porte peu à peu ses fruits. Même s’ils sont difficilement palpables. “On a des indices qui nous permettent de penser que les utilisateurs ont acquis une certaine sagacité concernant les algorithmes. Les fans de KPOP sont, par exemple, les premiers à comprendre la logique des tendances Twitter ou Tik Tok. Ils jouent avec pour s’en servir dans un but précis. Comme lorsqu’ils ont noyé des hashtags suprémacistes [l’été dernier, NDLR]. C’est la preuve que les citoyens et citoyennes utilisent dorénavant leur esprit critique quand ils sont confrontés à des algorithmes”, explique Mr Kayser-Bril, un brin plus optimiste. 

La régulation trace son sillon

S’il est difficile de jauger l’influence du travail des journalistes sur cette prise de conscience naissante, Anna Jobin, sociologue suisse, spécialiste des nouvelles technologies, estime que cette influence est non négligeable : “Le journaliste a le pouvoir d’amener des sujets dans le débat public. Les grandes révélations de ces dernières années, comme l’affaire Snowden ou les enquêtes de Propublica, ont permis de faire émerger ces sujets. Et maintenant même les politiques s’emparent de ces questions”. 

Tant est si bien que l’Union européenne a fait du Règlement général sur la protection des données (RGPD), mis en application le 25 mai 2018, une vitrine de son implication dans la bataille contre les dérives numériques.

Pour autant, Guénaël Pépin rappelle que la combat est loin d’être terminé : “Le RGPD n’est pas une réelle avancée en soi. Beaucoup de choses étaient déjà inscrites dans la loi informatique et libertés de 1978. Mais c’est bien que tout soit harmonisé à l’échelle européenne.

Pour lui le vrai cheval de bataille est ailleurs. “Ce qui va importer dans les mois et les années à venir, c’est le Digital Services Act (DSA). Ce texte est en cours d’élaboration du côté de la Commission européenne. Il vise à responsabiliser les plateformes numériques. C’est lui qui doit mettre en place un régulateur compétent pour les GAFAM, notamment en matière de transparence des algorithmes.

Un pas en avant, deux en arrière 

En somme, beaucoup reste à faire pour que les systèmes de prises de décision automatisée soient contrôlés. Car si on a pu voir des avancées concrètes, de nets reculs sont aussi à prendre en compte. “Le RGPD c’est une bonne chose. Mais on constate que la majorité des grandes entreprises du numérique sont installées en Irlande. Or, l’Irlande a sciemment sous-évalué les besoins de son autorité de protection des données personnelles, afin que le RGPD ne fonctionne pas”, détaille Nicolas Kayser-Bril, d’AlgorithmWatch.

Il poursuit : “Et si on rajoute à cela le problème de concentration des entreprises du numérique, avec récemment le rachat de WhatsApp par Facebook, on a des mastodontes, qui, chaque année, distribuent des millions aux médias européens, en espérant une couverture positive… Et ça marche plutôt bien.

Même son de cloche du côté d’Anna Jobin : “C’est compliqué, d’avoir des avancées. Parce que ceux qui mettent en place un algorithme et qui décident de l’utiliser ont rarement les mêmes attentes et les mêmes intérêts que celui à qui l’on « impose » l’algorithme.” 

Pour la chercheuse, il faut surtout faire attention à ne pas tomber dans un scénario orwellien “où l’on accorderait une soi-disant neutralité à cette technologie sans regard critique.

La peur d’une technocratie n’est donc plus un symptôme de paranoïa. Mais bien une hypothèse qui prend de l’ampleur, comme l’explique le journaliste d’AlgorithmWatch : “Le projet de caméras qui détecteraient les émotions des usagers du tramway à Nice, la loi sur le renseignement de 2015 qui prévoit, en France, une surveillance généralisée du web grâce à plusieurs algorithmes… Tous ces exemples montrent que l’on repousse petit à petit les limites de l’utilisation de ces technologies.

Tout n’est pas à jeter

Et pourtant faire la lumière sur les algorithmes n’est pas de tout repos. Surtout face aux moyens démesurés des GAFAM et des grandes entreprises du numérique.

Malgré tout, Guénaël Pépin veut croire que le jeu en vaut la chandelle. Il se rappelle l’affaire Equifax aux États-Unis en 2017. Cette agence de notation de crédits s’était fait hacker les informations personnelles, de centaines de millions d’américains. 

Des informations sensibles, comme le numéro de sécurité sociale ou encore des adresses. “Au début tout le monde s’est demandé comment ces données avaient pu être volées. Mais au fur et à mesure et grâce aux travaux d’investigations de la presse, le débat s’est orienté vers la question des algorithmes utilisés par Equifax. Au fond ce n’est plus la question de la sécurité des données qui était en jeu. Mais bien pourquoi un algorithme peut vous empêcher d’avoir accès à un crédit, est-ce normal qu’une machine ait une telle influence sur nos vies ?

Thibault Lacoux