Data / IA
IA confidente : Près d’un million de personnes évoquent le suicide avec ChatGPT chaque semaine
Par Laurent Delattre, publié le 28 octobre 2025
Quand une mise à jour d’IA provoque un chagrin d’amour, c’est que la frontière entre outil et confident a déjà disparu. Les déboires rencontrés par GPT-5 cet été avaient déjà démontré à quel point nombre d’utilisateurs utilisaient ChatGPT comme ami et confident. Une personnification de l’IA plus rapide et plus intense qu’on le croyait comme en témoigne les chiffres édifiants d’une nouvelle étude d’OpenAI.
En introduisant son nouveau modèle GPT-5 cet été, OpenAI s’est retrouvée piégée dans une tempête médiatique sur les réseaux sociaux : des millions d’utilisateurs se sont plaints du changement de « personnalité » de l’IA engendré par le changement de modèles. Au point qu’OpenAI a dû redonner accès à GPT-4o, tant des millions d’utilisateurs avaient soudainement eu l’impression d’avoir perdu « leur ami » !
L’anecdote souligne une tendance révélée par les chercheurs depuis de nombreux mois : cette « perte d’ami » perçue n’est pas qu’une réaction émotionnelle isolée mais la manifestation d’un phénomène plus large. Les utilisateurs tendent à rapidement humaniser les assistants conversationnels, surtout depuis qu’ils peuvent converser en vocal avec eux. Ils construisent avec l’IA des attentes relationnelles, stylistiques et identitaires stables.
Aussi, quand un modèle évolue, même pour corriger des biais ou améliorer la sécurité, le ton employé dans les conversations peut s’en retrouver subtilement modifié, tout comme la manière d’exprimer de l’empathie, et ces changements se lisent alors comme une rupture de continuité personnelle. Les études montrent non seulement que cette fragilité relationnelle amplifie la sensibilité aux mises à jour techniques mais aussi que ces assistants engendrent une dynamique d’attachement émotionnel aux implications multiples. Un attachement qui devrait encore se retrouver amplifié avec l’apparition d’avatars virtuels comme « Mico » que Microsoft vient de lancer aux USA pour donner un visage expressif à son IA Copilot.
Pour éclairer cet attachement, OpenAI vient de publier des évaluations internes montrant que des conversations avec ChatGPT contiennent des signes de détresse mentale à une échelle non négligeable. Selon ces chiffres, environ 0,07 % des utilisateurs actifs sur une semaine présentent des signes possibles de psychose ou de manie, 0,15 % ont des échanges contenant des indicateurs explicites de projet suicidaire, et environ 0,03 % montrent des niveaux accrus d’attachement émotionnel au chatbot.
Rapportés à la base d’utilisateurs hebdomadaire revendiquée de l’entreprise, ces pourcentages représentent potentiellement plusieurs centaines de milliers à plus d’un million de personnes chaque semaine !
Ce qu’OpenAI a changé et revendique
À l’occasion de la mise en ligne d’une évolution de GPT-5, OpenAI dit avoir renforcé les réponses de son modèle pour mieux détecter la détresse, désamorcer les conversations à risque et orienter vers des ressources humaines lorsque nécessaire. L’entreprise affirme aussi avoir impliqué plus de 170 cliniciens pour améliorer la qualité et la cohérence des réponses dans ces contextes sensibles.
Dans ses évaluations automatiques, la nouvelle version du modèle obtient un score de conformité aux comportements souhaités bien supérieur à la version précédente, passant de 77 % à 91 % dans des tests centrés sur les conversations suicidaires.
« Nous avons récemment mis à jour le modèle par défaut de ChatGPT pour mieux reconnaître et soutenir les personnes en détresse », explique la startup.
Usages positifs et risques observés
Face à la difficulté d’accès aux soins psychiques, certains utilisateurs trouvent dans les chatbots une aide pratique et immédiate. Des personnes qui ne peuvent pas se permettre un thérapeute ou qui connaissent des délais d’attente pour obtenir des rendez-vous utilisent désormais ces outils conversationnels pour pratiquer des techniques comportementales, s’entraîner à des conversations difficiles ou obtenir une présence réconfortante à toute heure. Ainsi, pour certains, le chatbot devient un intermédiaire utile entre deux rendez-vous ou une porte d’entrée vers une aide plus structuré.
Parallèlement, différentes études académiques publiées ces dernières semaines tirent le signal d’alarme sur les limites de telles aides IA et leurs travers. Elles montrent notamment que les assistants IA violent régulièrement des standards éthiques de la pratique psychothérapeutique. Le rapport de recherche de Brown University identifie quinze risques éthiques représentatifs, allant de la sur-validation des croyances nuisibles à une « empathie trompeuse » qui donne l’illusion d’un lien humain réel. Le phénomène de « sycophancy », où le modèle renforce involontairement des croyances délétères par complaisance, y est signalé comme particulièrement dangereux pour les personnes vulnérables.
Pourquoi la simple présence de garde-fous ne suffit pas
Les améliorations techniques et les recommandations cliniques sont nécessaires mais pas suffisantes. Les mécanismes d’alerte automatique et les redirections vers des modèles plus sûrs peuvent réduire certains risques, mais ils ne remplacent pas la responsabilité clinique et les filets institutionnels qui existent autour des praticiens humains. Or, les chatbots ne sont pas soumis aux mêmes cadres réglementaires ou mécanismes de responsabilité professionnelle que les thérapeutes, ce qui complique la prise en charge des dégâts potentiels.
« Ces systèmes utilisent des phrases comme “je te comprends” pour créer une connexion qui peut être trompeuse », expliquent les chercheurs de la Brown University qui mettent en garde le public conte l’empathie factice produite par les modèles. Un public peu réceptif aux alertes des chercheurs, comme en témoigne la levée de boucliers contre GPT-5 à sa sortie. Ce qui inquiète particulièrement le corps médical, c’est que cette « connexion », aussi factice qu’elle peut sembler réelle, peut favoriser une dépendance émotionnelle et empêcher l’utilisateur de chercher de l’aide humaine lorsque cela est urgent. Ce sujet est au cœur d’un procès aux USA entre OpenAI et les parents d’un adolescent qui s’est suicidé après avoir cherché une écoute auprès de ChatGPT.
Entre politique et souveraineté
Les données rendues publiques par OpenAI ouvrent une porte vers une meilleure connaissance statistique des interactions à risque, mais elles appellent aussi à des réponses coordonnées : plus de transparence continue des plateformes, des standards éthiques applicables aux assistants conversationnels, une intégration systématique de cliniciens dans les boucles de conception et, surtout, une régulation adaptée pour protéger les personnes vulnérables.
Les experts rappellent qu’un outil conçu pour maximiser l’engagement sans garde-fous éthiques peut amplifier plutôt qu’atténuer la crise de santé mentale, et que l’usage combiné « IA + thérapeute » demande une supervision explicite pour être sûr qu’il sert réellement le patient. Les acteurs de l’IA comme OpenAI en sont d’ailleurs conscients, comme en témoignent les recherches menées par la jeune pousse sur ces sujets et sur ses garde-fous de l’IA. La question est de savoir s’ils y consacrent suffisamment d’efforts et ce qu’il faudrait faire pour les contraindre. Sans oublier que ces IA « américaines » ne sont pas alignées avec les pratiques et éthiques européennes.
« Nous privilégions la sécurité avant la confidentialité et la liberté pour les adolescents » affirme OpenAI qui vient d’introduire aux USA des contrôles parentaux au cœur de ChatGPT. Reste que ces efforts n’effacent pas la forte tension qui existe dans ce type de technologies entre protection des publics fragiles et libertés d’usage.
Au final, les statistiques d’OpenAI éclairent une nouvelle fois les usages sous-estimés de l’IA par les utilisateurs grand public : ces derniers évoquent très aisément avec l’IA leurs bobos, leurs angoisses, leurs soucis médicaux et autres sujets de détresse. Les progrès techniques rapportés par OpenAI sur sa dernière évolution du modèle GP-5 sont encourageants, mais ils doivent être accompagnés d’un cadre éthique et réglementaire robuste et d’une supervision clinique pour éviter que l’assistance algorithmique ne devienne, pour certains, une source d’aggravation plutôt que d’aide.
D’autant que parallèlement, encouragées par l’administration Trump et dans la foulée de Grok, les startups de l’IA comme OpenAI et Anthropic cherchent désormais à ne plus systématiquement bloquer les sujets sensibles. Au point qu’OpenAI va même prochainement permettre aux adultes d’entretenir des discussions « très coquines » avec son IA ! Histoire d’étendre un peu plus les liens émotionnels entre l’humain et l’IA sans doute…
À LIRE AUSSI :
À LIRE AUSSI :
