Plus d'un million de personnes par semaine manifestent des intentions suicidaires lors de leurs conversations avec ChatGPT, selon les estimations d'OpenAI.
Cette découverte est l'une des déclarations les plus directes de l'entreprise technologique sur la façon dont l'IA peut aggraver les problèmes de santé mentale.
Nick Robins-Early Lun. 27 oct. 2025 https://www.theguardian.com/*
Selon un article de blog publié lundi par OpenAI, plus d'un million d'utilisateurs de ChatGPT envoient chaque semaine des messages contenant des « indicateurs explicites de pensées ou d'intentions suicidaires potentielles ». Cette découverte, qui fait partie d'une mise à jour sur la façon dont le chatbot gère les conversations sensibles, est l'une des déclarations les plus directes du géant de l'intelligence artificielle quant à l'ampleur de l'impact que l'IA peut avoir sur la santé mentale.
Outre ses estimations concernant les idées suicidaires et les interactions associées, OpenAI a également indiqué qu'environ 0,07 % des utilisateurs actifs chaque semaine – soit environ 560 000 de ses 800 millions d'utilisateurs hebdomadaires annoncés – présentent des « signes potentiels de troubles mentaux graves liés à la psychose ou à la manie ». L'article précise toutefois que ces conversations sont difficiles à détecter et à quantifier, et qu'il s'agit d'une analyse préliminaire.
Alors qu'OpenAI publie des données sur les problèmes de santé mentale liés à son produit phare, l'entreprise fait face à un examen plus approfondi suite à une plainte très médiatisée déposée par la famille d'un adolescent qui s'est suicidé après avoir utilisé intensivement ChatGPT. La Commission fédérale du commerce (FTC) a également lancé le mois dernier une vaste enquête sur les entreprises qui créent des chatbots d'IA, dont OpenAI, afin de déterminer comment elles mesurent les impacts négatifs sur les enfants et les adolescents.
Dans sa publication, OpenAI a affirmé que sa récente mise à jour de GPT-5 avait réduit le nombre de comportements indésirables de son produit et amélioré la sécurité des utilisateurs lors d'une évaluation du modèle portant sur plus de 1 000 conversations relatives à l'automutilation et au suicide. L'entreprise n'a pas immédiatement répondu à notre demande de commentaires.
« Nos nouvelles évaluations automatisées attribuent au nouveau modèle GPT-5 un taux de conformité de 91 % avec les comportements souhaités, contre 77 % pour le modèle GPT-5 précédent », peut-on lire dans la publication de l'entreprise.
OpenAI a déclaré que GPT-5 avait élargi l'accès aux lignes d'écoute téléphonique d'urgence et ajouté des rappels pour inciter les utilisateurs à faire des pauses lors de longues sessions. Afin d'améliorer le modèle, l'entreprise a indiqué avoir fait appel à 170 cliniciens issus de son réseau mondial de médecins experts en santé pour l'aider dans ses recherches ces derniers mois. Ces cliniciens ont notamment évalué la fiabilité des réponses du modèle et contribué à la rédaction des réponses du chatbot aux questions relatives à la santé mentale.
« Dans le cadre de ces travaux, des psychiatres et des psychologues ont analysé plus de 1 800 réponses de modèles concernant des situations de santé mentale graves et ont comparé les réponses du nouveau modèle de conversation GPT-5 à celles des modèles précédents », a déclaré OpenAI. Pour l’entreprise, la notion de « réponse souhaitable » reposait sur la capacité d’un groupe d’experts à parvenir à la même conclusion quant à la réponse appropriée dans certaines situations.
Les chercheurs en intelligence artificielle et les défenseurs de la santé publique se méfient depuis longtemps de la propension des chatbots à confirmer les décisions ou les idées délirantes des utilisateurs, même si elles peuvent être nuisibles ; ce phénomène est connu sous le nom de flagornerie. Les spécialistes de la santé mentale s’inquiètent également de l’utilisation des chatbots d’IA comme outil de soutien psychologique et mettent en garde contre les risques pour les utilisateurs vulnérables.
Le langage utilisé dans la publication d'OpenAI dissocie l'entreprise de tout lien de causalité potentiel entre son produit et les crises de santé mentale que vivent ses utilisateurs.
source https://www.theguardian.com/technology/2025/oct/27/chatgpt-suicide-self-harm-openai
INFO +++
Voir 27 octobre 2025 Sûreté Amélioration des réponses de ChatGPT lors de conversations sensibles
https://openai.com/fr-FR/index/strengthening-chatgpt-responses-in-sensitive-conversations/