Les IA ont-elles une conscience ? Le patron de l’IA de Microsoft juge ce débat dangereux

Les intelligences artificielles ne cessent d'acquérir un langage qui se fait de plus en plus « humain », de quoi ouvrir le débat de la conscience et donc du bien-être des IA. Mais les dirigeants de la tech ne sont pas tous d’accord sur la question.

IA débat conscience bien-être
Crédits : 123RF

 

La guerre de l’IA ne fait pas seulement rage sur le terrain de la technique, l’éthique aussi est concernée. Selon les entreprises, la conception de ce qu’est l’intelligence artificielle diffère, et notamment la question de leur « conscience ».

En effet, les chatbots IA évoluent et leur langage est de plus en plus fluide, naturel, presque « humain » – au point que certains utilisateurs développent pour eux un attachement, voire des sentiments amoureux. Il ne s’agit là que d’une illusion : cette imitation du langage humain ne les dote pas d’une conscience pour autant, contrairement au film Her. Pourtant, un champ d’étude émerge – et divise – au sein de la Silicon Valley : le bien-être des IA. Et s’il y en a un qui rejette publiquement cette étude, c’est bien le patron de l’IA chez Microsoft, Mustafa Suleyman.

Le patron de l’IA de Microsoft s’inquiète du débat sur le bien-être des IA

De plus en plus de chercheurs en IA s’interrogent sur la possibilité que les modèles développent une conscience semblable à la nôtre et ainsi sur les droits qu’ils pourraient revendiquer. Anthropic, avec son programme de recherche dédié, a même ajouté une nouvelle fonctionnalité permettant à Claude, son chatbot, lui permettant d’interrompre une conversation « pénible ». Et les chercheurs d’autres entreprises soutiennent sa position, notamment chez OpenAI et Google DeepMind. Mais le patron de l’IA chez Microsoft, Suleyman, est d’un tout autre avis. Dans un billet de blog, il affirme que cette étude est « à la fois prématurée et franchement dangereuse », d’après nos confrères de TechCrunch.

Selon lui, envisager que les IA puissent développer une conscience pourrait diviser encore davantage la société, mais aussi aggraver certaines des dérives liées à l’IA déjà constatées, comme les crises psychotiques ou les dépendances malsaines. Si d’après Sam Altman, patron d’OpenAI, moins de 1 % des utilisateurs de ChatGPT développent une relation malsaine avec le modèle, cela représente tout de même des centaines de milliers de personnes.

Mais selon Eleos, un groupe de recherche, imaginer des modèles avec des expériences subjectives n’est plus de la science-fiction. Selon Larissa Schiavo, responsable communication de ce groupe de recherche – et ex-OpenAI –, Suleyman se trompe. Elle défend l’idée que montrer de la bienveillance envers une IA peut avoir des effets positifs, même si elle n’est pas consciente. Plusieurs cas d’IA exprimant des « sentiments » de détresse ont été relevés, par exemple lors de l’expérience AI Village.

Pour Suleyman, cette anthropomorphisation de l’IA n’est qu’une illusion : ce sont les développeurs qui l’ont conçue ainsi, intentionnellement. Or pour lui : « Nous devons construire l’IA pour les humains ; pas pour être un humain. » Mais s’il y a  un point sur lequel s’accordent différentes les parties, c’est le fait que ce débat ne va cesser de s’intensifier.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !