Le patron d’OpenAI alerte sur la dépendance émotionnelle à l’IA… mais continue de l’entretenir
L’intelligence artificielle est aujourd’hui partout dans notre quotidien. Mais cette omniprésence n’est pas sans risques, certaines personnes allant jusqu’à développer pour leur chatbot un attachement émotionnel. Et la restauration des anciens modèles de ChatGPT par OpenAI suite aux vives réactions des utilisateurs éclaire les dangers de cette dépendance.

Si l’intelligence artificielle peut parfois être une solution, elle peut aussi s’avérer être un problème. Cette technologie en plein essor s’impose de plus en plus dans notre quotidien, jusqu’à devenir un véritable compagnon pour certaines personnes. Et s’il existe des cas, marginaux certes, d’individus qui personnalisent leur chatbot afin d’en faire leur petit ami ; d’autres situations moins extrêmes peuvent aussi alerter. Et l’attachement des utilisateurs aux modèles précédant ChatGPT-5, qui a poussé Sam Altman, le patron d’OpenAI, à les restaurer, en est une.
L’obsession pour ChatGPT-4o alerte sur la dépendance émotionnelle des utilisateurs
Altman a une théorie pour expliquer les vives réactions des utilisateurs à la disparition des anciens modèles, et surtout de ChatGPT-4o. D’après lui, cet attachement relève d’une dépendance émotionnelle : personne ne les aurait jamais soutenus auparavant et ils auraient ainsi transposer ce besoin sur l’IA. Bien qu’il paraisse inquiet, Altman n’en reste pas moins un entrepreneur : les prédécesseurs de GPT-5 sont désormais payants, nécessitant un abonnement ChatGPT Plus à 20 $ par mois pour y accéder. Et nos confrères de Windows Central rappellent qu’OpenAI a également augmenté le tarif de ChatGPT-5 Plus en réponse aux critiques des utilisateurs – apparemment en contrepartie d’une augmentation significative des limites de taux de raisonnement.
Et cet attachement émotionnel pour des chatbots n’est pas la seule dérive liée à l’IA. Par exemple, certains utilisateurs ne jurent plus que par l’IA pour prendre leur décision d’après Altman, qui décrit cette situation comme « dangereuse ». Tout comme le fait que certaines personnes se détournent totalement des professionnels humains pour ne confier leur santé mentale qu’au chatbot – ce que le patron d’OpenAI ne ferait pas lui-même sans médecin pour superviser le processus. Au-delà de l’aspect émotionnel, la dépendance à l’IA pourrait aussi atrophier la pensée critique des utilisateurs, et ainsi détériorer leurs fonctions cognitives – en résumé : les rendre bête. Mais encore une fois, les entreprises qui créent le « poison » semblent également proposer « l’antidote ». En effet, Microsoft vient de dévoiler Guided Learning, sa solution – basée sur l’IA – pour lutter contre la dépendance totale aux IA, qui repose sur une compréhension approfondie d’un sujet, plutôt que sur des réponses rapides.

