J’ai utilisé assez régulièrement un outil de programmation, pendant une période de ma vie où je traitais des données statistiques complexes, qui ne pouvaient pas se traiter avec un logiciel standard (pour les spécialistes : des données temporelles).
J’en garde un vif souvenir et notamment sur un point : un algorithme ne réagit presque jamais comme un humain.

Des algorithmes plus efficaces que les humains, certes…

On se pose beaucoup la question, aujourd’hui, d’une comparaison homme-algorithme, sur le mode de la compétition. On voit émerger de plus en plus de domaines où les calculateurs sont « supérieurs » aux hommes. C’est une première manière de dire les choses, en effet.
Allons déjà dans cette direction.
Les données que je traitais avaient été codées par des collègues, sur la base de réponses à un long questionnaire. J’ai passé des heures à rectifier des erreurs de codages commises par ces collègues (et parfois par moi-même) pendant des moments de distraction. A l’inverse, l’ordinateur avait un comportement régulier et prévisible.
De fait, beaucoup d’entre nous, aujourd’hui, préfèrent utiliser une calculatrice, une feuille de calcul ou un logiciel de cartographie, quand il veulent, ne serait-ce qu’additionner une série de chiffres, parce qu’ils ont peur de faire une « erreur de calcul ».

Autre point : sans le secours de l’informatique il aurait été tout simplement impossible de traiter ces données (à supposer que nous ayons travaillé sans faire d’erreur) car les calculs auraient été beaucoup trop longs. Une fois le programme lancé, la machine me sortait les résultats en moins d’une minute, au terme de tris complexes, d’hypothèses à tester sur chaque individu et de constructions de typologies qui auraient nécessité plusieurs jours de travail à plusieurs !
Une machine calcule considérablement plus vite que nous et nous utilisons, d’ailleurs, ce temps de réaction très court pour faire face, par exemple, à un freinage d’urgence, quand nous sommes en voiture.

Un effet indirect de cette rapidité est qu’il est possible d’explorer, avec un ordinateur, des hypothèses bien plus nombreuses que ce que nous faisons à la main.
Il m’arrive, par exemple, d’utiliser un GPS sur des trajets que je connais un peu et je suis parfois surpris des idées de trajet qu’il me sort. Ce sont des sortes d’idées venues d’ailleurs, que je finis par trouver moi-même sur les trajets que je fais régulièrement, à force d’essais et d’erreurs, mais que je n’ai pas le temps d’imaginer en temps réel.

Et puis il y a une différence majeure (et il faut du temps pour se pénétrer de son importance) c’est que le langage humain est toujours ambigu. Aidant parfois des collègues dans leurs propres traitements de ces données, j’ai dû discuter de longues minutes avec eux pour qu’ils précisent ce qu’ils cherchaient exactement.
Le langage informatique est beaucoup plus précis et c’est une fonction qui a été utilisée depuis bien longtemps pour faciliter les échanges entre des services d’ingénierie différents. Souvent, les différents services s’arrachaient les cheveux parce qu’ils se rendaient compte qu’ils ne parlaient pas de la même chose, ou parce qu’il y avait trop de sous-entendu chez certains, ou parce que certains détails laissés dans l’ombre par les uns étaient essentiels pour les autres. C’est ce qui a donné naissance aux lourds logiciels de conception assistée par ordinateur qui ont permis, notamment dans l’automobile et dans l’aviation, à des services éloignés les uns des autres de travailler sur des ensembles communs. Une évolution du même style est à l’œuvre aujourd’hui dans la conception des bâtiments où les « BIM » permettent aux différents corps de métier de partager un même référentiel

Mais l’homme ne fait pas que calculer, il interprète sans cesse

L’ambiguïté du langage humain est un constat qui ouvre, en fait, un large champ de réflexion. Car cela va beaucoup plus loin. Quand je parle à quelqu’un, il réinterprète toujours ce que je dis. Il ne le prend jamais « au pied de la lettre ». Il va le « barbouiller » de ses préjugés, de ses névroses, de ce qu’il pense que je pense, etc. L’ordinateur, à l’inverse, va faire exactement ce que je lui demande … jusqu’à l’absurde ! Lorsque l’on programme, la machine renvoie parfois des résultats aberrants, boucle sur elle-même et, donc, interrompt son travail, ou signale une impasse dont on se demande comment elle a pu survenir. Commence alors un long travail pour comprendre où la « sortie de route » a pu se produire. On finit toujours par découvrir que le logiciel a déraillé de manière absolument logique ! Faute de réinterpréter ce qu’on lui a commandé, il a fait exactement ce qu’on lui demandait et, d’enchaînement en enchaînement, il s’est enferré dans une direction qu’un enfant de trois ans aurait évitée. L’enfant, à tout le moins, se serait retourné vers nous pour nous demander des précisions.

On en a un exemple tragique, ces jours-ci, avec l’accident aérien de deux avions semblables qui, semble-t-il, ont été précipités au sol par un système automatique destiné à éviter les situations où l’avion se cabrait trop. Mais le constat est général : tous les bugs informatiques sont des erreurs logiques, provenant du fait que les concepteurs des logiciels n’ont pas envisagé toute l’arborescence de l’enchaînement des commandes possibles.

En fait, pour revenir à la situation d’interlocution humaine, l’autre ne fait pas que réinterpréter ce que je lui dis. Il en fait quelque chose qui le concerne et il imagine une voie d’action qui lui est propre pour y répondre. La communication entre deux personnes n’est donc pas seulement une perte (comme si le signal se dégradait de proche en proche), elle est aussi un gain : chacun investit les paroles de l’autre de sa subjectivité et rajoute « son grain de sel ».

La vie est invention

Comparer l’homme à l’une de ses créations artificielles (et souvent au désavantage de l’homme) est un vieil exercice. Descartes, déjà, comparait les animaux à des machines. Le mot de « robot » a, quant à lui, été créé par une pièce de théâtre écrite en 1920 où, naturellement, les machines supplantaient l’humanité.

J’ai beaucoup reçu, à ce propos, de la lecture de l’œuvre de Georges Canguilhem (1904-1995) qui a souligné, de manière récurrente, les différences entre les processus biologiques et les machines. Au-delà même de la question de l’homme, c’est tout le vivant dont il relève la particularité, par exemple dans l’essai « machine et organisme ». La différence essentielle qu’il note, pour la résumer en une phrase est que « la vie est expérience, c’est-à-dire improvisation, utilisation des occurrences ; elle est tentative dans tous les sens ». La vie, pour parler comme lui, ne se contente jamais du donné, elle cherche sans cesse à le remanier, à la transformer. Canguilhem ne s’est d’ailleurs pas limité à la question de la biologie générale. Il a, dans la continuité de son raisonnement, jugé fort sévèrement toutes les circonstances sociales où on essayait, précisément, de réduire l’homme à une machine. A propos de ce qu’on a appelé l’organisation « scientifique » du travail, que l’on appelle aujourd’hui le taylorisme, où les ouvriers étaient sensés limiter leur activité à quelques gestes élémentaires bien calibrés, voilà, par exemple, ce qu’il écrivit : « il est évidemment désagréable (pour les concepteurs du taylorisme) que l’homme ne puisse s’empêcher de penser, souvent sans qu’on le lui demande et toujours quand on le lui interdit ». En fait il décrit comment les ouvriers cherchent sans cesse à reprendre la main sur ce qu’on leur demande pour devenir « sujets de leurs normes », ce qui rend leur comportement « rebelle à la prévision et au calcul ».

Des algorithmes qui singent et renforcent à la perfection les comportements humains les plus rigides

C’est là que l’on touche à ce qui est, pour moi, l’utilisation la plus inquiétante des algorithmes, aujourd’hui : ils sont parfaits pour renforcer les comportements stéréotypés et rigides.

On sait que des algorithmes ont été utilisés, dans des élections serrées, pour repérer les stéréotypes dominants de certains groupes de personnes et les alimenter en informations (tendancieuses, parcellaires ou fausses) pour renforcer leur stéréotypes et les motiver à voter dans une direction donnée. Même les moteurs de recherche les plus ordinaires tiennent compte, aujourd’hui, de nos recherches antérieures pour favoriser les résultats qui répètent ce que nous avons déjà trouvé les fois précédentes. Des applications utilisées pour la drague, autre exemple, incorporent des stéréotypes sexuels, parce que leurs concepteurs imaginent (peut-être à raison) que cela correspond au type de recherche que les utilisateurs souhaitent.

Moi-même, traitant des données statistiques, j’ai mis en évidence des comportements moyens et, pour une large part, assez stéréotypés. L’enjeu était, justement, de mettre ces stéréotypes en évidence pour les questionner. Mais tout le monde n’a pas ce but dans l’utilisation des grandes masses de données qui circulent aujourd’hui. « Il est vrai, écrivait déjà Canguilhem en 1947, que l’art d’interdire aux hommes la pensée a fait de grands progrès dont nous avons été et serons encore peut-être les témoins ».

Il y a aujourd’hui un vaste marché de la prévisibilité des comportements. Cela s’appelle de la « gestion de la relation client », par exemple, ou encore de l’assurance. Des logiciels commencent à être disponibles pour cibler la publicité à adresser à X ou à Y, ou pour estimer les risques que court ou que fait courir une personne donnée.

Que fait Dieu quand il parle ?

Il est à peine besoin de commentaires théologiques explicites pour prendre la mesure des dangers que je pointe et je pourrais, après tout, rester moi-même dans le sous-entendu !

Mais je pense qu’il est utile d’ajouter une sorte de note de bas de page à ce que j’écris ici, pour souligner que la version réductrice du langage, induite par les outils informatiques, a contaminé jusqu’à notre vision de la parole de Dieu. J’entends souvent évoquer une sorte d’identification complète et sans ambiguïté entre le dire de Dieu et l’effet de ses paroles. On cite, par exemple, le Psaume 33 : « Dieu dit, et la chose arrive ; il ordonne, elle est là » (v 9). Mais on oublie de mentionner que, par ailleurs, le livre des Psaumes est rempli de situations d’injustices contraires au projet de Dieu.

On cite aussi volontiers ces versets d’Esaïe : « Comme la pluie et la neige descendent du ciel et n’y reviennent pas sans avoir abreuvé la terre, sans l’avoir fécondée et fait germer, sans avoir donné de la semence au semeur et du pain à celui qui a faim, ainsi en est-il de ma parole qui sort de ma bouche : elle ne revient pas à moi sans effet, sans avoir fait ce que je désire, sans avoir réalisé ce pour quoi je l’ai envoyée » (Es 55.10-11). Or il existe un long commentaire de ce texte, dans les évangiles, qui s’appelle la parabole du semeur. Et justement, quand le semeur sème, une large partie des graines se perd et ne donne pas de fruit. Et puis, finalement ceux qui « entendent la parole et la comprennent » « portent du fruit » (Mt 13.23). On va donc d’une parole créative à un processus créatif (porter du fruit) et c’est bien là ce que Dieu « désire » pour reprendre le mot d’Esaïe. Cela décrit bien l’ambiguïté du langage et la réinterprétation permanente que j’ai mentionnées. Dieu parle et tout le monde ne l’entend pas. Et ceux qui l’entendent incorporent sa parole, puis portent du fruit.

Dieu n’est pas un algorithme et il nous demande d’être plus que des algorithmes.
Restons-en là pour aujourd’hui.

Découvrez d’autres contenus sur le blog Tendances, Espérance