A OpenAI quer cobrir uma limitação evidente de qualquer chatbot: em conversas de risco, uma mensagem na tela pode não bastar. O Trusted Contact foi criado para permitir que usuários adultos do ChatGPT escolham com antecedência uma pessoa de confiança — como um amigo ou familiar — que pode ser alertada se a conversa sugerir risco de autoagressão ou suicídio [1].
A proposta é acrescentar uma camada humana de apoio. Em vez de depender apenas de uma resposta automática com recursos de crise, o recurso pode envolver alguém que o próprio usuário selecionou previamente [1][
4].
O que é o Trusted Contact
O Trusted Contact é uma configuração de segurança com adesão voluntária, ou seja, não é ativada automaticamente para todos. O usuário adulto precisa optar pelo recurso e indicar a pessoa de confiança antes de qualquer eventual alerta [1].
Se uma conversa no ChatGPT passar a indicar ideação de autoagressão ou suicídio, o sistema pode encorajar o usuário a procurar essa pessoa [1]. Também pode enviar um alerta automatizado ao contato escolhido, pedindo que ele confira como o usuário está .



