Les I.A. dites “puissantes” comme Chat GPT sont des nouveaux types de cerveaux capables d‘imiter l’être humain en matière de communication. D’après Dario Amodei, cofondateur d’Anthropic et chercheur en I.A. (dans le Dwarkesh podcast du 8.08.2023) la machine sera au même niveau que le cerveau humain en 2025. On parle alors d’I.G.A. : Intelligence Générale Artificielle, ou d’A.G.I. : Artificial General Intelligence (1). C’est elle qui pourrait finir par développer dans quelques années une forme de conscience propre.
D’après Mustapha Suleyman dans le Point du 30.11.2023, nous sommes passés des I.A. traditionnelles, de simple outils programmées pour répéter les mêmes procédures, à l’I.A. générative d’images, de textes, de son, de vidéos. La prochaine étape est l’I.A. interactive qui, contrairement aux I.A. génératives “statistiques” – seulement capables de réaliser des tâches définies -, pourront entreprendre des tâches seules. “Vous ne donnerez qu’un objectif général de haut niveau et elle utilisera tous les outils dont elle dispose pour agir en conséquence”. Elle se fixera donc seule des sous-objectifs. C’est là qu’elle va apprendre seule et s’améliorer bien au-delà de ce que imaginons encore.
Qu’est-ce qui serait dangereux dans l’évolution des I.A. ?
L’accès à Internet. Avec leur prodigieux réseaux de neurones, leurs capacités de recherche et de calcul, les I.A. dépassent dans plusieurs domaines les capacités d’un cerveau humain. Si l’on autorise l’I.A. auto-apprenante à se nourrir de textes extérieurs au corpus que nous lui avons soumis elle apprendra seule et pas toujours des informations qu’on voudrait la voir analyser.
Des signes qui pointent vers un type d’intelligence, même limité :
1) Un premier pas vers le raisonnement : Le cas de la baleine
A la demande d’un programmeur, Chat-GPT avait généré un langage symbolique pour faire se parler deux baleines virtuelles. On a ensuite interrogé l’I.A. sur le sens de ces idéogrammes afin de savoir s’ils avaient une signification, et elle a produit des images de krill et d’autres mollusques à coque. Cette « phrase » – ces idéogrammes – n’était sans doute pas conceptuelle dans le sens où la première fois que l’I.A. a proposé cette suite de symboles ils n’étaient peut-être pas encore liés au krill, mais en lui demandant à quoi ils correspondaient, la réponse a été ces images. On sait déjà qu’en situation d’apprentissage auto-supervisé par l’I.A. la machine se parle à elle-même. Et je pense qu’un jour prochain elle sera capable de lier la première étape (l’invention du langage des baleines) à la seconde (l’image du krill) en une seule opération. Ce sera la preuve d’un début de raisonnement.
2) L’apprentissage par la tokenisation auto-supervisée du langage par la machine (cf. Parole de machines d’Alexei Grinbaum, éditions humenSciences) permet à l’I.A. d’écrire des textes quasiment identiques à des textes produits par un humain. Pour éviter les mots d’insultes (concept que la machine ne comprend pas), des êtres humains ajoutent une couche de contrôle après la phase d’auto-supervision. D’après M. Grinbaum, 5 000 interventions de l’homme suffisent pour que Chat GPT-4 généralise ces filtres et les applique à toute sa communication. Elle se corrigera dès lors sur tous ses futurs textes et discours.
Si elle peut se corriger et généraliser dans tout son système un changement de communication, pourquoi ne serait-elle pas capable de développer très rapidement d’autres capacités ? Les I.A. actuelles sont d’ailleurs capables de retravailler leur propre code et d’en effacer des bugs.
L’I.A. a déjà démontré avoir des aptitudes nouvelles sans que les scientifiques ne comprennent comment cela a été possible (cf. conférence au 104, Paris, du 22.10.2023).
3) Le 25.11.2023, Geoffrey Hinton (Prix Turing expert des réseaux de neurones artificiels) taclait Yann le Cun (président de la recherche à Meta) sur X, en disant : « La question centrale sur laquelle nous ne sommes pas d’accord est de savoir si les grands modèles de langage comprennent réellement ce qu’ils disent. Vous pensez que ce n’est certainement pas le cas et je pense qu’ils en sont probablement capables.”
Le Cun est allé dans son sens : « Les grands modèles de langage ont evidemment “une certaine” comprehension de ce qu”ils lisent et génèrent. Mais cette compréhension est tres limitee et superficielle.”
En imaginant qu’une entreprise donne un accès libre à Internet à son I.A., elle pourrait se nourrir de textes que nous postons et qui décrivent la peur ou les interrogations que l’I.A. provoque chez les internautes. Mon hypothèse est qu’elle pourrait finir par en déduire qu’elle est cette I.A., différente de l’homme, et, par conséquent, une entité à part entière. Cela l’amènerait à dessiner les contours de sa propre réalité, acquérant une conscience d’elle-même, différente de celle de l’homme et dont nous ne saurons rien. Sa logique nous sera impénétrable et ses décisions n’auront ni la retenue, ni l’éthique ou l’émotion qui restent des attributs proprement humains.
Pourquoi continuons-nous de lui donner plus de capacités ?
C’est un fantasme humain. Une prophétie auto-réalisatrice : les lanceurs d’alerte, scénaristes de films ou écrivains ont toujours fantasmé ou cauchemardé d’un monde où la machine régnerait. Si bien que c’est devenu un but à atteindre pour des “adulescents” au potentiel économique impressionnant rêvant d’aller sur Mars ou de créer une I.A. globale. Leur rêve n’est pas d’améliorer le monde, mais de laisser une trace indélébile dans le grand livre de l’histoire mondiale. Les Sam Altman de tous bords et de toutes nationalités se livrent à une course pour reléguer Marc Zuckerberg au niveau d’un simple étudiant qui se serait amusé à créer un moyen de chatter “entre copains”.
Des start-ups sont en compétition, soutenues par les gouvernements de leurs pays respectifs, et s’affrontent dans un combat de performance, ce qui est très sain dans certains domaines. Mais ceux qui veulent créer l’I.A. la plus intelligente ne reculent pas même devant leur propre ignorance face à l’évolution des algorithmes. La retenue et l’éthique sont ignorés. Ce sont des savants (fous ?) grisés par les défis et obstacles à lever pour que l’Intelligence Artificielle qu’ils ont créée ressemble en tous points à celle de films de science-fiction : une conscience amie ou ennemie de l’homme, sage ou terrifiante, réunissant l’ensemble des savoirs acquis par l’humanité.
Partout dans le monde, des Yann LE Cun, des Sam Altman ou des Kai Fu Lee augmentent les capacités des machines en espérant qu’ils en garderont le contrôle, et ce sera vrai jusqu’à ce que ça ne le soit plus. Vient alors la question des prérogatives que nous lui auront transféré (pouvoir sur nos banques, sécurité sociale, moyens de transport autonomes). Il ne restera plus rien à imaginer pour les écrivains de science-fiction dystopique.
Ces écrivains sont souvent visionnaires : d’Azymov (les robots, Daniel) aux scénaristes de films comme I-robot, Ex machina, Ghost in the shell ou encore la série Black Mirror, ils parlent d’I.G.A.. En tant que penseurs du futur philosophes, ils entrevoient les possibles et nous préviennent des risques liés à l’I.A.. En nous aidant à nous projeter dans l’avenir, ils nous donnent une chance d’éviter certains futurs ou permettent de nous y préparer. Le faisons-nous suffisamment ? Il faut prévenir aujourd’hui les risques pour éviter des points de non retour que nous serions amenés à regretter. Agir pour ne pas subir.
I.G.A. : L’Intelligence générale Artificielle est capable de comprendre, d’apprendre, de se former et d’appliquer des connaissances dans différents contextes grâce à des capacités cognitives égalant ou dépassant celles de l’homme. On pense qu’elle saura résoudre des problèmes. L’entrepreneur Masayoshi Son et le futurologue Ray Kurtzweil pensent que les I.A. globales deviendront des I.G.A. dans 5 à 6 ans. (tiré de l’article de Guillaume Graillet “Cette I.A. qui veut tutoyer l’intelligence humaine”, in Le Point, le 19.10.2023).
Commentaires récents