ChatGPT veut prendre soin de votre santé mentale, voici comment l’IA va s’y prendre
OpenAI annonce plusieurs changements dans le fonctionnement de ChatGPT. Parmi eux, certains mettent l'accent sur la santé mentale des utilisateurs dans le but de la préserver.

En 2014 sortait le film Her de Spike Jonze, avec Joaquin Phoenix dans le rôle principal. Abattu par une séparation amoureuse, il installe un programme capable de parler et de s'adapter à son utilisateur. Rapidement, l'homme et la machine tombent amoureux.
À l'époque, ce scénario est de la pure science-fiction. Aujourd'hui, il pourrait être “inspiré d'une histoire vraie” selon la formule consacrée. La démocratisation de l'IA et surtout des agents conversationnels comme ChatGPT a en effet engendré son lot d'effets pervers.
Nous avons malheureusement entendu trop de récits dans lesquels une personne fragile psychologiquement, voire malade, surinvestissait le chatbot au point d'en devenir émotionnellement dépendant.
Dans le film Her, l'histoire finissait plutôt bien. Dans la vraie vie, beaucoup moins. OpenAI, la maison-mère derrière ChatGPT, en est consciente et à l'heure où de plus en plus de gens se tournent vers l'IA pour parler de leur santé mentale, elle propose une mise à jour visant à protéger les utilisateurs des excès. Cela prendra notamment la forme d'un message d'avertissement.
Voici comment ChatGPT va préserver la santé mentale de ses utilisateurs
Lors d'une discussion, vous pourrez voir apparaître un popup indiquant : “Vous discutez depuis un moment, est-ce que ce ne serait pas le bon moment pour faire une pause ?“. Deux options s'offrent alors à vous : “Continuer à discuter” ou indiquer à ChatGPT que ce message vous “a été utile“, ce qui mettra fin à la conversation
Le délai au bout duquel un utilisateur verra le popup est inconnu. OpenAI précise dans son annonce qu'il continuera à travailler sur quand et comment ces rappels s'afficheront “afin qu’ils paraissent naturels et utiles“.
Dans le même temps, la firme de Sam Altman va “continuer d'améliorer [ses] modèles et développer des outils pour mieux détecter les signes de détresse mentale ou émotionnelle afin que ChatGPT puisse réagir de manière appropriée et orienter les gens vers des ressources” appropriées si nécessaire. Rappelons qu'en avril dernier, OpenAI supprimait une mise à jour qui rendait son IA trop complaisante, ce qui pouvait aggraver des problématiques de santé mentale.

