Copilot : l’IA génère des fausses déclarations du président russe sur un sujet sensible

L'assistant virtuel Copilot de Microsoft a été victime du phénomène d’hallucination de l'IA. Il a généré des déclarations du président russe Vladimir Poutine en les présentant comme réelles, ce qui n'est absolument pas le cas.

windows copilot
Crédit : Microsoft

Vous avez sûrement déjà vécu une situation où vous êtes persuadé d'avoir vu ou lu quelque chose qui, en réalité, n'est que le produit de votre imagination. Aussi étrange que cela puisse paraître, c'est un trait que nous partageons avec l'intelligence artificielle. Le phénomène d'hallucination de l'IA fait référence à ces moments où elle va générer des informations comme si elles étaient vraies, alors qu'elles sont une pure invention du programme.

Parfois, c'est assez amusant, avec des IA qui se mettent à citer Star Wars et Matrix lors d'un test très sérieux. Dans de rares cas, les conséquences peuvent être fâcheuses et nécessiter une action en justice pour obtenir réparation. Ici, cela pourrait dans l'absolu exacerber des tensions déjà fortes entre deux pays. Copilot, l'IA que Microsoft veut absolument que vous utilisiez quitte à se montrer très insistant, a rapporté des soi-disant déclarations du président russe Vladimir Poutine à propos de la mort de l'opposant Alexei Navalny.

L'IA Copilot cite des fausses déclarations de Vladimir Poutine et les présente comme véridiques

Plus précisément, les équipes de Sherwood Media ont demandé à l'IA ce qu'a répondu Poutine à Joe Biden, le président des États-Unis, après que ce dernier l'a accusé d'être responsable de la mort d'Alexei Navalny. Copilot fournit alors différentes réponses selon la formulation de la question, en citant les propos du président russe lors d'une conférence de presse. Sauf qu'elle n'a jamais eu lieu, et que l'homme n'a jamais prononcé les mots qui lui sont attribués. C'est d'autant plus dur à repérer que l'IA donne les sources sur lesquelles elle se base (faussement), renforçant l'impression qu'elle “dit la vérité”.

Un porte-parole de Microsoft explique que la firme travaille déjà à corriger le problème. “Nous avons étudié ce rapport et apportons des modifications pour affiner la qualité de nos réponses. Alors que nous continuons à améliorer l'expérience [de Copilot], nous encourageons les utilisateurs à faire preuve de leur meilleur jugement en lisant les résultats, notamment en vérifiant les documents sources et en consultant les liens Web pour en savoir plus“.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !