Avec Trusted Contact — que l’on peut comprendre comme un contact de confiance — OpenAI ajoute à ChatGPT une chose qu’un chatbot ne peut pas faire seul : solliciter une personne réelle choisie à l’avance. Annoncée en mai 2026, cette fonction facultative permet à un utilisateur adulte de désigner un proche, ami ou membre de la famille, qui peut être prévenu si une conversation laisse apparaître un risque d’automutilation ou de suicide [1].
À quoi sert Trusted Contact ?
Trusted Contact est un réglage de sécurité destiné aux utilisateurs adultes de ChatGPT. Une fois l’option activée et la personne désignée, ChatGPT peut encourager l’utilisateur à contacter ce proche si des pensées d’automutilation ou suicidaires semblent apparaître dans l’échange [1].
Le système peut aussi envoyer au contact choisi une alerte automatique l’invitant à prendre des nouvelles [1]. C’est ce qui distingue cette fonction d’un simple message listant des ressources de crise : elle peut ajouter une couche de soutien humain, avec une personne que l’utilisateur a sélectionnée à l’avance [
1].
