OpenAI a annoncé le 7 mai 2026 une nouvelle fonctionnalité pour ChatGPT baptisée Contact de confiance. L’idée : permettre à un utilisateur adulte de désigner un proche à alerter automatiquement en cas de signaux de détresse détectés par l’IA dans la conversation, comme des propos de mal-être ou des idées suicidaires. Une réponse directe à la pression réglementaire et à plusieurs affaires sensibles qui ont mis ChatGPT en cause depuis 2024.
Comment fonctionne le Contact de confiance ?
La fonctionnalité s’active depuis les paramètres de votre compte ChatGPT, dans la section Sécurité et bien-être. Vous renseignez les coordonnées d’un proche (nom, numéro de téléphone, adresse email). Cette personne reçoit alors un email de confirmation pour valider qu’elle accepte ce rôle.
Une fois activé, le système s’appuie sur 3 mécanismes :
- Détection automatique de signaux d’alerte via les modèles internes d’OpenAI : idées suicidaires, automutilation, détresse aiguë
- Confirmation discrète demandée à l’utilisateur dans le chat avant l’alerte (sauf en cas d’urgence immédiate)
- Notification au proche par SMS, email ou notification mobile, avec un message neutre et factuel : « [Prénom] vit peut-être une situation difficile, contactez-le »
OpenAI insiste : le contenu de la conversation n’est jamais transmis au proche. Seule l’alerte est envoyée, accompagnée d’une liste de ressources d’aide (lignes d’écoute, services d’urgence locaux).
Pourquoi OpenAI lance cette fonctionnalité maintenant ?
Plusieurs facteurs convergent. D’abord, la pression judiciaire : depuis 2024, plusieurs affaires ont impliqué ChatGPT dans des situations de détresse psychologique mal accompagnées. Des familles ont reproché à OpenAI un défaut de signalement ou un manque de garde-fous lorsque l’utilisateur évoquait clairement une intention suicidaire.
Ensuite, la régulation européenne. L’AI Act impose aux fournisseurs de modèles généralistes des obligations de vigilance sur les usages à risque, dont la santé mentale. Aux États-Unis, plusieurs États ont voté des lois exigeant des mécanismes de signalement intégrés.
Enfin, OpenAI s’aligne sur la tendance industrielle. Anthropic a intégré dès 2025 des mécanismes de modération partagés avec OpenAI. Les kill switches matériels d’OpenAI annoncés en 2025 vont aussi dans ce sens.
Les limites et les questions que pose la fonctionnalité
Cette nouveauté soulève aussi de vraies questions de société :
- Faux positifs : un utilisateur écrivant un scénario de fiction ou une réflexion philosophique peut-il déclencher l’alerte par erreur ? OpenAI affirme que plusieurs paliers de vérification limitent ce risque.
- Vie privée du proche : la personne désignée reçoit potentiellement une information sensible sans avoir demandé à endosser ce rôle. La validation initiale ne garantit pas qu’elle saura quoi faire le moment venu.
- Confidentialité des conversations : OpenAI affirme que le contenu des échanges ne sort jamais de votre compte. Mais la détection elle-même implique une analyse en continu par le modèle.
- Mineurs exclus pour l’instant : la fonctionnalité est réservée aux comptes adultes. ChatGPT pour mineurs reste sous contrôle parental classique sans Contact de confiance.
Pour les utilisateurs sensibles à la confidentialité, il reste possible d’utiliser ChatGPT en mode éphémère, qui désactive l’historique mais probablement aussi la détection. OpenAI n’a pas encore précisé ce point.
Comment l’activer ou la désactiver dès maintenant ?
Le déploiement est progressif sur les comptes ChatGPT Free, Plus et Pro. Pour vérifier si la fonctionnalité est active sur votre compte :
- Connectez-vous à chat.openai.com
- Cliquez sur votre avatar en bas à gauche puis Paramètres
- Allez dans Sécurité et bien-être puis Contact de confiance
- Renseignez le proche, validez par email, ou laissez l’option désactivée si vous ne souhaitez pas l’utiliser
Cette fonctionnalité marque un tournant dans la façon dont OpenAI positionne ChatGPT : non plus seulement un outil de productivité, mais aussi un compagnon avec une responsabilité implicite envers l’utilisateur. Reste à voir si les autres acteurs (Anthropic, Google, Mistral) suivront la même voie en 2026.

