Ni les avertissements déjà anciens (Günther Anders, Jacques Ellul), ni les analyses alarmistes à chaud, y compris parmi ses concepteurs, n’ont manqué. Quant à une «hypothétique conjonction quasi fusionnelle entre la pensée organique humaine et la technique», telle que la dessinent les ouvrages de Yuval Noah Hariri, elle anticipe « un homme superflu, dominé, habitant un monde ruiné, (…) diminué bien plus qu’augmenté »« Qu’allons-nous faire de nous ? »

Sans même nous en apercevoir, presqu’en toute inconscience, nous nous exposons quotidiennement aux risques de l’intelligence artificielle. Il suffit d’ouvrir notre ordinateur. Risques que nous mesurons mal, puisqu’ils restent abstraits et qu’ils s’imposent à nous sans que nous puissions les prévenir. L’IA s’introduit dans nos vies, les facilitant tout en les menaçant, faisant oublier sa prédominance silencieuse. Non seulement nous acceptons ses principes, nécessaires, mais nous nous y conformons puisqu’il semble impossible de les remettre en cause, ni d’ailleurs de nous y soustraire. L’Open Source n’est désormais plus un recours, une échappatoire, un contournement. Enfermés dans un réseau dont nous ignorons très majoritairement l’architecture (1), nous vivons de manière soft, comme on dit, ou transparente, une expérience bien plus qu’orwellienne. Car, librement selon les apparences, sans résistance, nous nous installons dans une dépendance irréversible, artisans de notre assujettissement.

Servitude volontaire ? Pour pasticher La Boétie: «Soyez donc résolus à ne plus (vous en) servir et vous serez libre». Impossible, car c’est une servitude qui ne laisse aucun choix. Sauf à jouer les stylites ou à vivre au fond d’un bois, libéré de l’informatique, coupé de tout, donc résolu au pire. On serait plus proche de Spinoza, chez qui le concept de servitude volontaire n’existe pas, bien sûr, mais pour qui une servitude ne serait volontaire que par «l’idée illusoire (bien entretenue par le système de l’IA) d’avoir une volonté libre» (2). Situation que Günther Anders n’hésiterait pas à qualifier de totalitaire. Ou de nouvelle invitation, que nous ne pouvons décliner, à céder à une forme insidieuse de néo-totalitarisme ? Pouvons-nous disposer du choix lorsqu’il est déjà fait ?

Des risques profonds pour la société et l’humanité

Conscients «des risques profonds pour la société et l’humanité», les signataires d’une lettre ouverte en date du 22 mars 2023, à l’initiative de l’Institut Future of Life, réclamaient une pause de six mois dans le développement de l’intelligence artificielle (3). Ils s’appuyaient notoirement sur les 23 principes d’Asilomar (4), sorte de guide éthique qui se veut universel, et qui s’inspire des fameuses trois lois de l’écrivain de science-fiction Isaac Asimov (5). Tout en étant capable de résoudre une infinité de tâches, GPT4 présenterait des caractéristiques typiques de la pensée humaine. GPT4, humain, trop humain ! Le onzième principe