J’ai à peine terminé une série sur Netflix que la plateforme m’en propose d’autres qui correspondent à mes goûts. Sur Facebook (je suis assez vieille pour avoir encore un profil !), je vois la plupart du temps les publications des trente mêmes amis. Et quand je rentre dans Parcoursup, je réalise que l’avenir de mon enfant va être tiré à la roulette par une force obscure, l’algorithme.

L’algorithme, dans le big data, c’est une combinaison mathématique qui tient compte de plusieurs problématiques pour arriver à une solution aboutie. Apanage des codeurs, il est le roi du net, et pilote un certain nombre de programmes informatiques. Il est donc censé simplifier les choses. Pour « traduire » un algorithme en bon français, il correspondrait à une phrase qui serait constituée de plusieurs « et si », pour conclure par un « alors… ». Une phrase très complexe et difficile à envisager par le cerveau humain. Dès lors, il est plus facile et rapide de la mettre en formule mathématique pour arriver à une conclusion supposée logique et fermée. Or, nous faisons une confiance quasi aveugle aux algorithmes, en négligeant plusieurs aspects qui montrent que nos vies ne sont pas que logiques. Quand les algorithmes modélisent nos comportements – ou l’avenir de nos enfants, il y a franchement de quoi s’inquiéter.

Trois critiques principales me viennent à l’esprit si l’on considère le fonctionnement des algorithmes auxquels nous sommes confrontés dans notre quotidien.

L’algorithme est subjectif.

Parce qu’il est mathématique, l’algorithme serait impartial : les mêmes données produiraient les mêmes résultats. Pourtant, deux conducteurs qui interrogent une application GPS et qui partent du même endroit et vont vers la même destination au même moment (faites le test, pour ma part j’ai essayé) ne se verront pas systématiquement proposer le même itinéraire. Et il semble que la gestion en temps réel du trafic n’en soit pas l’unique raison… Que dire de deux voyageurs qui réservent un billet de train pour la même destination à la même heure !
L’algorithme est fortement – pour ne pas dire forcément – dépendant de la volonté de celui qui est à son origine. S’il apporte une conclusion en fonction des données qu’on lui injecte, il oriente surtout cette solution selon les paramètres pour lesquels il est programmé. Sa subjectivité tient donc dans les associations faites a priori entre certains critères ou paramètres, qui, naturellement, vont influencer le résultat obtenu a posteriori. Les entreprises qui ont intérêt à nous faire consommer, les partis politiques qui veulent s’approprier nos voix – ou n’importe quelle institution qui veut s’attirer les faveurs du public – vont sélectionner ces paramètres pour arriver à influer la conclusion dans le sens qui leur convient : plus de clients, d’électeurs, de partisans… Et qui nous dit qu’une puissance étatique ne serait pas capable de faire programmer des algorithmes dans le sens de ce qu’il veut obtenir du peuple – ou en fonction de ses orientations de société prioritaires ? A ce stade, l’algorithme c’est non seulement de la politique, ça pourrait même devenir de la dictature – mais discrète.

L’algorithme est conservateur.

Il reproduit ce qu’il connait, ou sélectionne ce qu’il croit être nous – les fameuses « préférences ». Il ne laisse pas la place à la surprise, ni à l’imprévu, ni à l’inattendu. Il conduit rapidement à la standardisation, voire la monotonie. Les algorithmes de Meetic, Tinder ou autres sites de rencontres calculent des probabilités de compatibilité entre des personnes, selon leur personnalité, leur mode de vie, leurs passions (et sans doute aussi leurs études et leur niveau social…). Avec eux, Roméo n’aurait certainement pas rencontré Juliette (compatibilité Montaigu/Capulet proche de zéro…) et le physique de Quasimodo n’aurait jamais « matché » avec celui d’Esmeralda… Or, pour ma part, j’ai encore envie d’être surprise par mes lectures, interloquée par mes découvertes ou étonnée par mes rencontres, quelles qu’elles soient ! La curiosité fait partie de moi, et il n’est donc pas question de leur faire aveuglément confiance ou d’accepter de n’avoir qu’une seule voie pour choisir. Mais qu’il est difficile d’étendre ses recherches ou découvertes en dehors des sentiers balisés par le big data !

L’algorithme a le goût du secret.

Pour qu’il fonctionne efficacement, il est nécessaire que la plupart de ses utilisateurs ne sachent pas comment l’algorithme opère ou sélectionne, afin de ne pas pouvoir le détourner. Son opacité conditionne son efficacité. Les sociétés qui référencent les sites internet s’arrachent les cheveux à chaque mise à jour de Google – les fameux « Core update » -, pour tenter de découvrir quels sont les nouveaux critères que retient le moteur de recherche pour positionner un site en tête de liste. De même, les associations de parents d’élèves ont eu le plus grand mal à obtenir les données sur l’algorithme de Parcoursup – dont on a compris qu’il était radicalement différent de celui de son prédécesseur, APB. Mais on a découvert qu’il y avait des sous-algorithmes locaux, dépendants des formations elles-mêmes (universités, écoles…) dont les préférences restent encore énigmatiques. De nombreuses associations dénoncent le fait qu’il a plutôt tendance à accentuer les inégalités sociales entre étudiants. En orientant nos jeunes dès maintenant vers certaines filières – ou pas – qu’est-ce que ces choix disent sur la société de demain dont ils sont les futurs acteurs ?

Du secret à la manipulation, il n’y a qu’un pas… Est-ce ainsi que nous avons envie d’être dirigés dans nos vies ? Quels pourraient être les freins ou moyens de contrôle de cette intelligence artificielle, programmée par l’homme – mais qui pourrait devenir incontrôlable ? Ces hommes qui programment (ou ceux qui les commanditent) n’ont reçu aucun mandat de notre part pour qu’on leur délègue nos vies. Quelle est leur légitimité ? Quelle commission d’éthique va vérifier que des critères discriminants opaques ne soient pas intégrés – volontairement ou non – dans ces programmes ? Et comment pourrions-nous retirer certains paramètres des algorithmes de programmes que nous utilisons (en décochant des cases, par exemple) pour continuer à être surpris, étonnés, bousculés « en dehors de nos préférences habituelles » ? Un débat de plus en plus pointé du doigt, et qui en dit long sur la société que nous voulons.