Une ancienne salariée de Facebook, Frances Haugen, qui a quitté l’entreprise du fait de son désaccord avec sa politique de hiérarchisation et de mise en valeur des contenus, a fait grand bruit, la semaine dernière, en témoignant devant le congrès américain contre son ancien employeur. Mais ce qu’elle révèle est, somme toute, banal : Facebook met en valeur les messages qui suscitent les réactions émotionnelles les plus fortes.
Les journaux, qui relaient avec gourmandise les ennuis de Facebook, devraient un peu réfléchir qu’ils pratiquent des stratégies relativement analogues. Cela date même de bien avant l’apparition d’Internet : les titres à sensation sur la une des journaux sont un classique de la profession. Aujourd’hui, tout organe de presse qui surveille le nombre de clics engendrés par un article donné aura, inévitablement, tendance à multiplier les sujets qui génèrent les débats enfiévrés. Il me suffit, pour mon compte, de regarder le trafic que je génère avec mon blog : dès que j’aborde un sujet qui échauffe les esprits, le nombre de lecteurs est multiplié par deux.
Les faux mystères des algorithmes
Frances Haugen documente précisément le rôle des algorithmes de Facebook. Ils analysent les réactions à une publication donnée et toute expression de colère (par exemple) fait remonter la publication dans le classement. Avant 2018, les fils d’actualité étaient surtout chronologiques. Depuis cette date, les contenus suivent un indicateur appelé « engagement based ranking ». L’engagement en question n’a rien de militant, il se limite à une réaction émotionnelle marquée (et éventuellement éphémère). Le réseau social favorise donc la circulation de contenus, non pas sur la base de leur documentation plus ou moins poussée, mais, simplement, sur la base de l’intensité des échanges qu’ils provoquent. En fait d’algorithme c’est simplissime !
En revanche, ce que dit Frances Haugen et qui est plus grave, c’est que les tentatives pour analyser de plus près les contenus haineux, ont donné lieu à des investissements de faible envergure. Elle même avait, au départ, rejoint l’entreprise pour travailler sur ce sujet, et elle l’a quittée, découragée par l’importance réellement donnée à ce défi. Il est, certes, plus difficile de repérer ces contenus en utilisant l’intelligence artificielle. Mais entre des algorithmes qui ne font que mesurer le buzz et un investissement sur le repérage des contenus haineux insuffisant, le résultat est prévisible.
Mark Zuckerberg se défend mollement, avec son discours technocratique coulé dans le marbre : « L’argument selon lequel nous mettons délibérément en avant du contenu qui rend les gens en colère, pour des profits, est complètement illogique. Nous faisons de l’argent avec les publicités, et les annonceurs nous disent sans arrêt qu’ils ne veulent pas leurs publicités au côté de contenus nuisibles ou véhéments. Et je ne connais aucune compagnie technologique qui se fixe de développer des produits rendant les gens en colère ou déprimés. » Mais tout est dans le « délibérément ». Facebook vend ses chiffres de trafic et l’effet indirect d’une politique axée sur le trafic est de chauffer les émotions à blanc.
Quand les algorithmes font le sale boulot
Quelques jours auparavant, un rapport sénatorial sur le développement des plateformes informatiques de service (chauffeurs uber, livraisons de repas, etc.) a lui aussi pointé le rôle que l’on fait jouer aux algorithmes. L’exemple le plus parlant est celui de la livraison de repas. Les livreurs, en fait, sont payés à la course et ils n’ont aucune garantie, quand ils se déclarent disponibles (pour beaucoup c’est une activité à temps partiel), d’avoir des livraisons à effectuer. Leur temps d’attente entre deux courses n’est pas rémunéré. Quand un client passe une commande, un algorithme affecte cette commande à un livreur (qui peut la refuser, auquel cas l’algorithme la propose à un autre livreur). Le temps est un paramètre décisif (et les plateformes en font un argument commercial). Il y a donc des paramètres aisément compréhensibles : le logiciel optimise la distance entre le domicile du client, le restaurant qui produit le repas et la localisation du livreur. Il peut même prendre en compte l’état de la circulation. Mais il y a d’autres critères plus obscurs. Les livraisons et les livreurs sont notés par les clients. Le logiciel va donc favoriser un livreur bien noté. Un livreur qui prendra tous les risques, sur son deux roues, pour aller,le plus vite possible, au restaurant et, ensuite, au point de livraison, sera, a priori, avantagé et ce, d’autant plus que son déplacement est suivi, en temps réel, par le système informatique (le rapport du Sénat, pointe, d’ailleurs, l’accidentologie élevée de ces situations de travail). Et qui sait ce qu’évalue le client ? On ne peut exclure des critères discriminatoires dans l’évaluation d’au moins une partie d’entre eux. En bref, l’algorithme rempli les fonctions d’un garde-chiourme et d’un contremaître d’autant plus brutal qu’il laisse planer le doute sur les ressorts de sa décision.
Alors même que, dans la plupart des cas, les livreurs ne sont pas salariés, ils sont soumis à un contrôle de leur travail que peu de salariés accepteraient. Mais tout cela est noyé dans les mystères d’un calcul algorithmique que peu d’entreprises consentent à dévoiler.
Les algorithmes ont bon dos
Dans les deux cas, il est évident que ceux qui manient, à leur profit, les algorithmes n’ignorent pas grand chose des conséquences de leur usage. On retrouve, à cette occasion, une configuration qui a été souvent mise en évidence par la sociologie du travail : l’outil technique sert à faire passer un mode d’action qui, s’il était mis en œuvre directement, soulèverait des résistances bien plus fortes.
Mais ne nous lavons pas les mains trop vite, car qui sont les consommateurs des fils d’actualité de Facebook, des sites Internet des journaux et des livraisons à domicile ? Faisons attention à la manière dont nous cliquons. Nous pouvons faire pression. Le rapport sénatorial n’a pas voulu prendre parti sur la requalification comme salariés des travailleurs des plateformes (ce qui a été fait dans d’autres pays). Ce que les élus de gauche regrettent. Et ils ajoutent un commentaire suggestif : « nous aurions souhaité qu’un certain nombre de plateformes qui développent des modèles alternatifs et/ou qui agissent dans d’autres secteurs soient entendues. Par exemple Just Eat, ou encore la plateforme Gorillas qui n’a pas recours à des autoentrepreneurs mais bien à des salariés, pour la plupart en CDI à temps plein, dans ses magasins et prend l’ubérisation comme contre-modèle convaincu de l’enjeu éthique et de la pression des consommateurs, du moins d’une partie grandissante d’entre eux » (p. 151 du rapport).
Et pour ce qui est de notre influence sur les contenus d’information, nous pouvons commencer par ne pas cliquer sur les articles aux titres les plus anxiogènes ou les plus racoleurs.
Attention, en tout cas, aux médiations techniques qui nous font perdre de vue ce que nous faisons faire à d’autres personnes. Pour les uns l’appareillage technique simplifie la vie, pour les autres, il la leur rend plus compliquée et plus douloureuse.