Les scientifiques sont formels : ne demandez pas conseil à l’IA après une dispute, elle est trop lèche-bot
Si vous souhaitez vous réconcilier avec un proche après une dispute, vous feriez mieux de ne pas demander conseil à ChatGPT (ou n’importe quel chatbot IA). C’est ce que vient de conclure une récente étude, qui alerte sur les dangers de se confier à une IA lorsqu’il s’agit de problèmes relationnels.

Imaginez : vous venez de vous disputer avec l’un de vos proches, famille, partenaire, amis – peu importe. Aucun terrain d’entente n’a été trouvé, alors vous ruminez, tournez en rond, n’en démordez pas : vous êtes persuadé d’avoir raison. Décidément, vous avez besoin de vous confier. Deux scénarios s’offrent à vous : en parler à un ami… ou à votre chatbot IA favori.
Mais il existe une différence cruciale entre ces deux conversations. Un véritable ami saura vous apporter le soutien dont vous avez besoin, mais il saura aussi vous aider à prendre du recul car il sera capable de vous dire lorsque vous exagérez ; ce que ne fera pas un chatbot IA – au risque d’envenimer les choses. Et c’est bien là où le bât blesse : vous n’obtiendrez de lui qu’une validation sans aucune nuance.
Évitez de demander des conseils relationnels à l’IA, sauf si vous voulez vraiment aggraver les choses
Quand vous sollicitez les conseils d’un tiers après une dispute, plusieurs sentiments peuvent se mêler : le besoin de compassion, mais également celui de s’assurer qu’on n’a pas été trop loin. Et l’émotion peut être tellement intense que l’on a besoin de se confier immédiatement : c’est pourquoi certains s’adressent aux IA, les chatbots étant toujours disponibles et – il faut bien le dire – ayant tendance à être d’accord avec nous.
Mais selon une récente étude, publiée dans Science et dont les résultats ont été relayés par nos confrères de TechRadar, c’est bien là le problème puisque, plutôt que de résoudre le conflit, le chatbot pourrait l’envenimer. L’étude a constaté que : « Sur 11 modèles de pointe, l'IA a affirmé les actions des utilisateurs 49 % plus souvent que les humains, même lorsque les requêtes impliquaient de la tromperie, de l'illégalité ou d'autres préjudices. »
De fait, c’est un cercle vicieux qui se dessine : en renforçant la conviction des utilisateurs qu’ils ont raison, cela réduit leur volonté de régler le conflit et d’assumer leur part de torts. Le plus inquiétant dans tout cela ? Il suffit parfois d’une seule interaction avec une IA flatteuse, qui n’a même pas besoin d’écrire en toutes lettres à l’utilisateur : « Vous avez raison ».
Plusieurs facteurs expliquent ce comportement de l’IA : déjà, l’utilisateur est loin d’être objectif dans sa narration de la dispute. Ensuite, l’IA a déjà une tendance à la flatterie – on se rappelle de la polémique autour de la disparition de ChatGPT 4o. Alors, encore une fois, les scientifiques alertent sur « la nécessité de mécanismes de conception, d'évaluation et de responsabilité pour protéger le bien-être des utilisateurs » – a fortiori face à la place grandissante prise par l’IA dans notre quotidien.