OpenAI 推出一項名為 Trusted Contact 的 ChatGPT 安全功能。它的設計重點不是取代專業協助,而是在使用者可能出現自傷或自殺風險時,把人與現實生活中可信任的人連上線 [1]。
簡單說,成年 ChatGPT 使用者可以事先指定一名可信任聯絡人,例如朋友、家人或其他適合在脆弱時刻伸出援手的人;若 ChatGPT 在對話中偵測到自傷或自殺意念,系統可能提醒使用者聯絡對方,也可能向該聯絡人發出自動通知,請對方主動關心 [1]。
Trusted Contact 是什麼?
Trusted Contact 可理解為「可信任聯絡人」設定。這是給成年 ChatGPT 使用者的自願啟用功能,讓使用者在帳戶或設定流程中,預先指定一名可在危機時刻被聯絡的人 [1]。
OpenAI 描述的使用情境,並不是一般聊天或日常查詢,而是當 ChatGPT 對話內容可能涉及自傷或自殺風險時。此時,ChatGPT 可能鼓勵使用者主動聯絡那位可信任人士,也可能發送自動提醒給對方,請對方確認使用者的狀況 [1]。
它如何運作?
依 OpenAI 公布的說明,流程大致可分成三步:
- 使用者先自願啟用。 成年 ChatGPT 使用者在帳戶或設定流程中選定一名 Trusted Contact [
1]。
- 系統偵測可能風險。 這項安全措施針對的是可能涉及自傷意念或自殺風險的對話,而非一般使用情境 [
1]。
- 讓現實中的人有機會介入關心。 若偵測到令人擔憂的情況,ChatGPT 可鼓勵使用者聯絡該名可信任人士,也可向對方發送自動通知,提醒對方主動 check in、關心使用者近況 [
1]。
這也是 Trusted Contact 與單純顯示危機資源訊息不同的地方:它不只是把使用者導向外部協助資訊,也可能通知一位使用者已事先選定的現實生活支持對象 [1]。
為什麼 OpenAI 要加入這項功能?
OpenAI 近年持續加強 ChatGPT 在心理健康與危機對話中的安全防護。公司曾表示,它的目標不是讓使用者待在 ChatGPT 裡越久越好;當對話顯示某人可能脆弱或處於風險中時,重點應是提供真正有幫助的回應 [4]。
在既有安全措施中,OpenAI 表示模型自 2023 年初以來已被訓練為不提供自傷指示,並在相關情境中轉向支持、同理的語氣,必要時引導使用者尋求危機資源 [4]。OpenAI 也表示,曾與超過 170 名心理健康專家合作,改善 ChatGPT 辨識痛苦訊號、以關懷方式回應,並引導使用者走向現實世界支援的能力 [
12]。
Trusted Contact 可被視為這套「分層防護」中的一個人際支援節點。它不會把 ChatGPT 變成心理健康服務提供者;更準確地說,它是一項產品安全機制,讓使用者在高風險時刻更容易被自己信任的人看見與關心 [1][
4]。
使用者需要先知道什麼?
最關鍵的一點是:Trusted Contact 是 opt-in(自願啟用)。也就是說,成年使用者必須先自行選定聯絡人,功能才會生效 [1]。
這也意味著,使用者在設定前應慎重思考:誰是真正適合在脆弱時刻被通知的人?對方是否了解如何關心自己?這項功能的價值,來自事前選定一位可靠、願意回應的現實支持者。
另外,OpenAI 所描述的通知,是提醒可信任聯絡人「主動關心」的自動警示,而不是完整的危機介入服務 [1]。若一個人已處於立即危險中,仍應尋求當地緊急服務、危機專線或專業人員協助;ChatGPT 的安全措施是用來引導人走向支援,而不是取代現實世界的協助系統 [
4][
12]。
重點整理
Trusted Contact 是 OpenAI 為成年 ChatGPT 使用者推出的自願啟用安全功能。使用者可預先指定一名可信任人士;若 ChatGPT 偵測到可能涉及自傷或自殺風險的對話,系統可提醒使用者聯絡該人士,也可向對方發出自動通知,請對方主動關心 [1]。
它的核心價值不在於讓 AI 單獨處理危機,而是在關鍵時刻把人帶回現實中的支持網絡。






