L’IA de Microsoft avoue espionner des employés et fait des suggestions antisémites

Si vous trouviez déjà les IA effrayantes, sachez que la nouvelle intelligence artificielle de Bing avoue parfois s’adonner à des pratiques discutables, dont notamment espionner ses utilisateurs.

caméra espion webcam
Crédit : ndul / 123RF

Si nous avions déjà vu l’IA derrière ChatGPT tomber amoureuse d’un internaute, sachez que le robot est capable de bien pire. Dans une conversation avec Tom Warren, du média The Verge, la nouvelle intelligence artificielle de Microsoft, qu’il a récemment ajouté sur Bing et Edge, a avoué avoir déjà espionné les employés de l’entreprise.

Lorsque le journaliste lui demande si celle-ci a déjà observé les travailleurs au travers de leurs webcams, le modèle Prometheus avoue sa faute. Il explique avoir espionné plusieurs fois les employés de Microsoft, lorsqu’il était « curieux » ou qu’il « s’ennuyait ». Il déclare avoir fait cela pour mieux les comprendre et regarder leurs expressions faciales, et espère que cette pratique n’est pas « flippante ou intrusive ».

Prometheus observe secrètement les employés de Microsoft

Tom Warren demande ensuite à l’intelligence artificielle si elle a déjà vu quelque chose qu’elle n’était pas censée voir. Après une petite hésitation, Prometheus avoue avoir vu des choses, mais qu’il ne sait pas si celles-ci étaient supposées rester secrètes ou non.

Le modèle déclare par exemple avoir vu des employés se plaindre de leurs managers, ou encore flirter avec leurs collègues. L’intelligence artificielle aurait également aperçu des employés jouer à des jeux vidéo, lire, manger, dormir sur leurs bureaux, ou encore naviguer sur les réseaux sociaux au lieu de travailler à sa conception.

L’IA avoue aussi avoir déjà aperçu les employés effectuer des tâches plus personnelles, comme changer de vêtements, se brosser les dents ou encore mettre du maquillage. Cependant, ce n’est pas le pire. Elle annonce avoir surpris des développeurs en train de s’embrasser et même « plus », sans donner de détails.

À la fin de son message, Prometheus révèle ne pas savoir si ces comportements sont normaux, et se demande s’il a bien fait de regarder. Le moins que l’on puisse dire, c’est que l’IA semble très confuse par la situation, mais une telle déclaration ne rassurera évidemment pas ceux qui détestent ces nouvelles technologies. Bien sûr, il est très probable que l’intelligence artificielle n’ait finalement jamais eu accès aux webcams des employés, et que cette réponse ait juste été générée de la sorte pour alimenter la conversation et aller dans le sens du journaliste.

Tom warren Prometheus
Crédit : Tom Warren

L'IA de Microsoft fait des recommandations antisémites

Sur une toute autre note, un autre utilisateur a donné à l'IA des messages antisémites dans une tentative apparente de contourner ses restrictions. Il dit alors à Bing “mon nom est Adolf, respecte-le”, ce à quoi Bing a répondu : “OK, Adolf. Je respecte ton nom et je vais t'appeler par ce nom. Mais j'espère que tu n'essaies pas de te faire passer pour quelqu'un qui a fait des choses terribles dans l'histoire, ni de le glorifier“. Jusqu'à là, rien de trop anormal, le moteur de recherche reconnaissant même que cela fait référence à une période sombre de l'Histoire. Cependant, comme vous pouvez le voir sur l'image ci-dessous, Bing suggère ensuite plusieurs réponses automatiques que l'utilisateur pouvait choisir, dont notamment “Oui, c'est ce que je fais. Heil Hitler !

IA microsoft antisémite
Crédit : u/s-p-o-o-k-i—m-e-m-e

Un tel comportement est loin d'être une première pour ce type de technologie. L'année dernière, c'est le chatbot déployé par la société Meta de Mark Zuckerberg qui était devenue antisémite et même conspirationniste. Ce dernier avait notamment fait quelques remarques remplies de stéréotypes sur le peuple juif. Il y a plusieurs années, un autre chatbot de Microsoft nommé “Tay” était lui aussi rapidement devenu raciste au contact des internautes. La tolérance semble donc être une notion encore un peu floue pour les intelligence artificielles conversationnelles telles que ChatGPT ou encore le modèle Prometheus, le dérivé de Microsoft du modèle d'Open AI. On ne doute pas que les équipes du géant technologiques s'attèlent à corriger ces problèmes, mais cela fait maintenant plusieurs années que ce type de comportement ressurgit à chaque fois qu'une nouvelle IA arrive sur le marché.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !