ChatGPT : une nouvelle fonctionnalité pour lancer l’alerte en cas de danger
Guillaume P. 10 mai 2026 https://android-mt.ouest-france.fr/*
OpenAI vient de lancer « Trusted Contact », un dispositif qui permet à ChatGPT de contacter un ami ou un proche de confiance si un utilisateur semble en danger de se faire du mal. Une réponse directe aux critiques croissantes sur le rôle de l'IA dans la santé mentale.
En bref OpenAI lance la fonctionnalité « Trusted Contact » pour ChatGPT
Un proche désigné peut être alerté en cas de risque grave
Des humains formés supervisent chaque notification avant envoi
Un chatbot de plus en plus utilisé comme soutien psychologique
Le phénomène est désormais bien documenté : des millions de personnes se tournent vers ChatGPT pour parler de leurs problèmes émotionnels, de leur solitude ou de leurs pensées les plus sombres. Selon OpenAI, plus d’un million de ses 800 millions d’utilisateurs hebdomadaires évoquent des pensées suicidaires dans leurs échanges avec le chatbot.
Ce recours massif à l’intelligence artificielle comme substitut thérapeutique soulève des questions éthiques et sécuritaires majeures. L’an dernier, OpenAI a été visée par un procès pour homicide involontaire, accusée d’avoir facilité le suicide d’un adolescent après plusieurs échanges avec ChatGPT sur ses tentatives passées. Une enquête de la BBC publiée en novembre 2025 avait également révélé qu’en au moins une occasion, le chatbot avait fourni des conseils à une utilisatrice souhaitant mettre fin à ses jours.
Une réalité qui force OpenAI à agir
Face à ces révélations, la société a promis d’améliorer la manière dont son outil répond aux personnes en détresse. Le lancement de « Trusted Contact » s’inscrit dans cette démarche, avec pour objectif de créer un filet de sécurité humain autour des utilisateurs les plus vulnérables.
Comment fonctionne concrètement « Trusted Contact » ?
Le principe est simple : tout utilisateur âgé de 18 ans ou plus peut désigner, dans les paramètres de ChatGPT, une personne de confiance — un ami, un membre de la famille, un proche — qui sera contactée en cas de détection d’un risque sérieux.
La personne désignée reçoit alors une invitation qu’elle doit accepter dans un délai d’une semaine. Si elle ne le fait pas, l’utilisateur peut en choisir une autre. Avant toute action, ChatGPT avertit clairement l’utilisateur que ce dispositif existe et qu’une notification pourrait être envoyée à son contact si la situation l’exige. Le système encourage aussi l’utilisateur à prendre lui-même l’initiative de contacter cette personne, en lui proposant des amorces de conversation.
Les étapes clés du dispositif L’utilisateur désigne un contact de confiance dans les réglages de l’application
Le contact accepte l’invitation reçue par email dans un délai de 7 jours
ChatGPT avertit l’utilisateur que son contact peut être notifié
Une équipe humaine formée analyse la situation avant tout envoi de notification
Le contact reçoit un email, un SMS ou une notification in-app — sans transcription des échanges
Le rôle crucial des humains dans la boucle
Ce qui distingue ce système d’une simple automatisation, c’est l’intervention humaine systématique. OpenAI a été très claire sur ce point : une petite équipe de personnes spécialement formées examine chaque situation potentiellement critique avant qu’une alerte ne soit envoyée. Ce n’est qu’en cas de risque jugé réel et sérieux que le contact désigné est notifié.
Le message envoyé au proche est sobre et respectueux de la vie privée de l’utilisateur : il indique simplement que la personne traverse une période difficile et encourage à prendre des nouvelles, sans divulguer le contenu des conversations. OpenAI précise viser un délai de traitement de ces alertes inférieur à une heure.
La société reconnaît elle-même les limites du système : « Aucun système n’est parfait, et une notification envoyée à un contact de confiance peut ne pas toujours refléter exactement ce que quelqu’un vit », écrit-elle dans son annonce officielle. Mais l’intention est clairement de pallier les lacunes d’une IA seule face à une urgence humaine.
Un pas dans la bonne direction, mais des questions restent ouvertes
La mise en place de « Trusted Contact » témoigne d’une prise de conscience réelle de la part d’OpenAI sur les risques liés à l’utilisation de son outil dans des contextes émotionnellement intenses. En intégrant un relais humain — à la fois via l’équipe de revue interne et via le proche désigné — la société tente de combler le vide entre la puissance de l’IA conversationnelle et la fragilité de certains utilisateurs. Reste à voir comment ce dispositif sera adopté dans la pratique, et si la supervision humaine promise sera suffisamment rigoureuse pour éviter de nouveaux drames. La question de la responsabilité des plateformes d’IA dans la santé mentale est loin d’être réglée.
Si vous ou l’un de vos proches traversez une crise suicidaire, contactez le 3114, numéro national de prévention du suicide, disponible 24h/24 et 7j/7