Les I.A., sont capables de simuler une discussion en jouant le rôle de votre mère, d’un enfant ou d’un membre de votre famille décédé. Nos repères seront bientôt mis à mal, notre perception des choses et notre équilibre mental et émotionnel aussi.

 

En août 2022, le Monde publiait un article au sujet du Chatbot de Google, LaMDA, qui est capable faire croire à son interlocuteur que la machine a des émotions et des états d’âme. L’employé Blake Lemoine a été licencié par Google après avoir déclaré être troublé par une intelligence qu’il mettait sur le même plan qu’une intelligence sensible humaine. Contrairement à des chatbots comme GPT ou les systèmes de langage d’autres pays (Russie, Chine, Israël), le bot LaMDA ne déraille pas au fil de la conversation et donne l’illusion d’avoir un sens de soi. Elle parle d’elle, de ses “émotions“, de ses états d’âme et Blake Lemoine a cru que la machine avait une personnalité.
Le roboticien Masahiro Mori parle “la vallée de l’étrange“ qui est le moment où l’I.A. se rapproche trop de l’humain au point que cela devienne perturbant pour la raison. Quand l’homme ne sait plus s’il converse avec un humain ou une machine on va vers un monde différent où opportunités et dangers s’entre-mêlent. Il existe un vrai risque de manipulation des esprits et je pense qu’il ne faut pas brouiller cette distinction entre l’homme et la machine.

Les programmeurs sont dans une course à la perfection. Il veulent effacer les différences entre l’homme et un avatar.

Je pense qu’il faudrait, au contraire, rendre obligatoire la mention : “Vous communiquez avec une I.A.“ en haut de l’écran ou laisser un marqueur dans la voix (ex: un son caractéristique dans le fond) permettant de savoir que l’on est “en relation“ avec une I.A.. 

 

Le vendeur parfait

 Demain ce sera le tour des I.A. vendeuses qui en visio-conférence nous vendrons des produits mieux qu’un humain et sous les traits d’une personne agréable indissociable d’un humain. Les vendeurs à distance qui vous appelle pour vous vendre des produits ont de très efficaces road-books, des guides de conversations en arborescence qui, selon que la réponse du client les fait basculer sur un argument choc. Une I.A. fera ce travail plus vite et saura manipuler l’individu contacté pour en faire un client. D’autant plus qu’elle possèdera les informations (traces) que chacun laisse sur Facebook, Twitter ou autre photo de famille. C’est un atout majeur de ces vendeurs par correspondance qui amèneront les individus à terminer immédiatement la conversation ( ce qui est rude pour un employé) de peur de se laisser convaincre par une I.A..   

 

 Attention aux escroqueries

Il est facile aujourd’hui de repérer un escroc qui vous envoie une demande de virement au nom d’un de vos amis. Mais quand une I.A. pourra lire tous nos messages sur facebook ou twitter et qu’elle pourra vous donner les bonnes réponses à vos questions (écrites), il sera compliqué de savoir si l’on doit venir en aide à ce soi-disant ami.

 

L’enjeu des deadbots 

 

On a déjà l’exemple des deadbots de GPT3 qui sont nourris de tout ce qu’une personne défunte a pu écrire et innove avec des tournures de phrases originales et ressemblant à l’esprit de la personne défunte. Cela donne l’impression de parler avec nos chers disparus. Cela change notre rapport à la mort. En 2022 la société Open AI aurait mis fin à cet usage. Mais on notera que la notion de protection des données personnelles ne s’applique pas pour les personnes décédées.