En août 2022, BlenderBot 3, le chatbot de Meta (Marc Zuckerberg) n’est resté en ligne que 6 jours car il tenait des propos racistes, sexistes et complotistes. Ça a été le cas pour Chat GPT-3, pour un chatbot Sud-coréen et dès 2016 avec “Tay“ de Microsoft.

Qu’est-ce que cela montre ? Les I.A. sont le reflet de l’environnement que nous avons créé. Internet permet au meilleur comme au pire de l’homme de prospérer sous couvert de liberté d’expression. Sexe, violence, meurtres, complotisme y pullulent. Les I.A. sont-elles pour autant un reflet de la société ? Certes non, mais elles reflètent ce dont on nourrit les humains.
Bard de Google semble mieux se comporter face aux tests qui ont provoqué l’arrêt de ses concurrents. Mais est-ce gagné pour autant ? On peut interdire à une intelligence artificielle d’utiliser certains mots ou de faire des déclarations choquantes, mais l’I.A. se nourrit d’internet pour se faire une image de notre monde en tenant malheureusement compte des fantasmes et dérives que permet la totale liberté d’expression.

Pour se mettre en accord avec les demandes actuelles de l’Europe et même des USA, les créateurs de chatbots donnent à leurs robots conversationnels une image politiquement correcte. Ils présentent une façade lisse, exempte d’idées radicales, mais c’est prendre cette nouvelle intelligence pour ce qu’elle n’est pas : moins intelligente que nous. C’est une illusion quand les I.A. continuent à apprendre ce que l’homme montre de lui sur le  web : ses travers et exutoires émotionnels.

Quand on élève ses enfants, on leur transmet – le plus souvent – des valeurs de respect et de tolérance. Mais les entreprises qui développent les I.A. se sont lancées trop vite avant de préciser quelles étaient les valeurs dont il fallait nourrir celle-ci. Aujourd’hui, on peut se demander s’il n’est pas trop tard pour ça. Une fois de plus, les investisseurs se sont précipités pour financer les entreprises qui seront les premières dans ce domaine sans vouloir se poser des questions éthiques qui auraient, possiblement, dans un premier temps, ralenti la rapidité d’apprentissage des robots. Comme d’habitude, on crée à l’aveugle et doit ensuite corriger, amender, courir derrière notre création.

Pour se donner bonne conscience on organise maintenant des moratoires pour faire perdurer l’illusion que les I.A. sont inoffensives. On va déclamer à l’ONU des règles, comme si édicter des règles a posteriori pouvait avoir la moindre influence sur ce qu’elles ont déjà appris. 

Les nouvelles générations se montrent enthousiastes et ouvertes à cela. Elles prennent nos mises en garde pour des peurs de réactionnaires devant un avenir qui ne nous appartient plus, et ne sauront bientot plus que, depuis les employés d’Open AI jusqu’à ses patrons, les créateurs des chatbots (cette I.A. qui dépasse largement le simple rôle d’outil conversationnel) ont une peur bleue de ce qu’ils ont créé : une nouvelle forme d’intelligence que l’homme ne pourra bientôt plus contrôler, qui peut avoir accès à tous nos mots de passe ou nous interdire de communiquer avec les autres si elle décide que notre discours est “contre-productif“.

Dans mon livre Aurora, Shin Zen est l’incarnation de ce capitalisme décomplexé. Il se contrefiche des conséquences de ses actes. Mon personnage principal, Takashi, a pu intervenir dès le début de la programmation, et c’est ce qui pourrait sauver le monde (pas de spoiler…).
Aurora parle donc aussi de l’importance pour chacun d’avoir sa propre conscience et sa vision pour le futur et surtout l’importance des lanceurs d’alerte. Chaque citoyen doit prendre la responsabilité de ce qu’il apporte en idées et en actes à la société et en corriger les dérives à son niveau, sans quoi on continuera de remettre notre pouvoir entre les mains d’hommes politiques qu’on sait être influencés, sinon manipulés, par des acteurs économiques puissants, sans scrupules, cupides et, par voie de conséquence, irresponsables.