studioglobal
熱門探索內容
答案已發布3 個來源

OpenAI「Trusted Contact」是什麼?ChatGPT 自傷風險警示怎麼運作

OpenAI 推出 Trusted Contact,讓成年 ChatGPT 使用者可自願指定一名親友或其他可信任人士,在可能出現自傷或自殺風險時提供現實世界的支援 [1]。 若系統偵測到令人擔憂的對話,ChatGPT 可能鼓勵使用者聯絡該名可信任人士,也可能向對方發送自動提醒,請對方主動關心 [1]。

300
Image from coverage of ChatGPT mental health emergency and suicide-risk safety features
OpenAI has released new estimates of the number of ChatGPT users who exhibit possible signs of mental health emergencies, including mania, pOpenAI’s Trusted Contact feature is part of a broader push to connect ChatGPT users in distress with real-world support.OpenAI shares data on ChatGPT users with suicidal thoughts ... - BBC

OpenAI 推出一項名為 Trusted Contact 的 ChatGPT 安全功能。它的設計重點不是取代專業協助,而是在使用者可能出現自傷或自殺風險時,把人與現實生活中可信任的人連上線 [1]

簡單說,成年 ChatGPT 使用者可以事先指定一名可信任聯絡人,例如朋友、家人或其他適合在脆弱時刻伸出援手的人;若 ChatGPT 在對話中偵測到自傷或自殺意念,系統可能提醒使用者聯絡對方,也可能向該聯絡人發出自動通知,請對方主動關心 [1]

Trusted Contact 是什麼?

Trusted Contact 可理解為「可信任聯絡人」設定。這是給成年 ChatGPT 使用者的自願啟用功能,讓使用者在帳戶或設定流程中,預先指定一名可在危機時刻被聯絡的人 [1]

OpenAI 描述的使用情境,並不是一般聊天或日常查詢,而是當 ChatGPT 對話內容可能涉及自傷或自殺風險時。此時,ChatGPT 可能鼓勵使用者主動聯絡那位可信任人士,也可能發送自動提醒給對方,請對方確認使用者的狀況 [1]

它如何運作?

依 OpenAI 公布的說明,流程大致可分成三步:

  1. 使用者先自願啟用。 成年 ChatGPT 使用者在帳戶或設定流程中選定一名 Trusted Contact [1]
  2. 系統偵測可能風險。 這項安全措施針對的是可能涉及自傷意念或自殺風險的對話,而非一般使用情境 [1]
  3. 讓現實中的人有機會介入關心。 若偵測到令人擔憂的情況,ChatGPT 可鼓勵使用者聯絡該名可信任人士,也可向對方發送自動通知,提醒對方主動 check in、關心使用者近況 [1]

這也是 Trusted Contact 與單純顯示危機資源訊息不同的地方:它不只是把使用者導向外部協助資訊,也可能通知一位使用者已事先選定的現實生活支持對象 [1]

為什麼 OpenAI 要加入這項功能?

OpenAI 近年持續加強 ChatGPT 在心理健康與危機對話中的安全防護。公司曾表示,它的目標不是讓使用者待在 ChatGPT 裡越久越好;當對話顯示某人可能脆弱或處於風險中時,重點應是提供真正有幫助的回應 [4]

在既有安全措施中,OpenAI 表示模型自 2023 年初以來已被訓練為不提供自傷指示,並在相關情境中轉向支持、同理的語氣,必要時引導使用者尋求危機資源 [4]。OpenAI 也表示,曾與超過 170 名心理健康專家合作,改善 ChatGPT 辨識痛苦訊號、以關懷方式回應,並引導使用者走向現實世界支援的能力 [12]

Trusted Contact 可被視為這套「分層防護」中的一個人際支援節點。它不會把 ChatGPT 變成心理健康服務提供者;更準確地說,它是一項產品安全機制,讓使用者在高風險時刻更容易被自己信任的人看見與關心 [1][4]

使用者需要先知道什麼?

最關鍵的一點是:Trusted Contact 是 opt-in(自願啟用)。也就是說,成年使用者必須先自行選定聯絡人,功能才會生效 [1]

這也意味著,使用者在設定前應慎重思考:誰是真正適合在脆弱時刻被通知的人?對方是否了解如何關心自己?這項功能的價值,來自事前選定一位可靠、願意回應的現實支持者。

另外,OpenAI 所描述的通知,是提醒可信任聯絡人「主動關心」的自動警示,而不是完整的危機介入服務 [1]。若一個人已處於立即危險中,仍應尋求當地緊急服務、危機專線或專業人員協助;ChatGPT 的安全措施是用來引導人走向支援,而不是取代現實世界的協助系統 [4][12]

重點整理

Trusted Contact 是 OpenAI 為成年 ChatGPT 使用者推出的自願啟用安全功能。使用者可預先指定一名可信任人士;若 ChatGPT 偵測到可能涉及自傷或自殺風險的對話,系統可提醒使用者聯絡該人士,也可向對方發出自動通知,請對方主動關心 [1]

它的核心價值不在於讓 AI 單獨處理危機,而是在關鍵時刻把人帶回現實中的支持網絡。

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

使用 Studio Global AI 搜尋並查證事實

重點整理

  • OpenAI 推出 Trusted Contact,讓成年 ChatGPT 使用者可自願指定一名親友或其他可信任人士,在可能出現自傷或自殺風險時提供現實世界的支援 [1]。
  • 若系統偵測到令人擔憂的對話,ChatGPT 可能鼓勵使用者聯絡該名可信任人士,也可能向對方發送自動提醒,請對方主動關心 [1]。
  • 這項功能是 ChatGPT 既有危機安全措施的延伸;OpenAI 也表示,其模型已接受訓練,避免提供自傷指示,並以支持、同理的方式引導使用者尋求現實協助 [4]。

輔助視覺素材

OpenAI to introduce parental controls for ChatGPT following reports of self-harm among teens. Learn about the new safety measures.
OpenAI to introduce parental controls for ChatGPT following reports of self-harm among teensOpenAI to introduce parental controls for ChatGPT following reports of self-harm among teens. Learn about the new safety measures.Safety Concerns Lead OpenAI to Implement New ChatGPT Controls - The Seattle Medium
A green promotional banner with black squares and rectangles forming pixels, moving in from the right. The text says: “Tech Decoded: The world’s biggest tech news in your inbox eve
A green promotional banner with black squares and rectangles forming pixels, moving in from the rightA green promotional banner with black squares and rectangles forming pixels, moving in from the right. The text says: “Tech Decoded: The world’s biggest tech news in your inbox every Monday.”OpenAI shares data on ChatGPT users with suicidal thoughts ... - BBC

大家也會問

「OpenAI「Trusted Contact」是什麼?ChatGPT 自傷風險警示怎麼運作」的簡短答案是什麼?

OpenAI 推出 Trusted Contact,讓成年 ChatGPT 使用者可自願指定一名親友或其他可信任人士,在可能出現自傷或自殺風險時提供現實世界的支援 [1]。

最值得優先驗證的重點是什麼?

OpenAI 推出 Trusted Contact,讓成年 ChatGPT 使用者可自願指定一名親友或其他可信任人士,在可能出現自傷或自殺風險時提供現實世界的支援 [1]。 若系統偵測到令人擔憂的對話,ChatGPT 可能鼓勵使用者聯絡該名可信任人士,也可能向對方發送自動提醒,請對方主動關心 [1]。

接下來在實務上該怎麼做?

這項功能是 ChatGPT 既有危機安全措施的延伸;OpenAI 也表示,其模型已接受訓練,避免提供自傷指示,並以支持、同理的方式引導使用者尋求現實協助 [4]。

下一步適合探索哪個相關主題?

繼續閱讀「Jack Clark 的 2028 AI 警告:當 AI 可能開始打造自己的下一代」,從另一個角度查看更多引用來源。

開啟相關頁面

我應該拿這個和什麼比較?

將這個答案與「Instagram 加密私訊將於 2026 年 5 月 8 日後停用:隱私會怎樣?」交叉比對。

開啟相關頁面

繼續深入研究

來源

  • [1] OpenAI introduces new ‘Trusted Contact' safeguard for cases of possible self-harmtechcrunch.com

    On Thursday OpenAI announced a new feature called Trusted Contact, designed to alert a trusted third-party if ideations of self-harm are expressed within a conversation. The feature allows an adult ChatGPT user to designate another person as a trusted conta...

  • [4] Helping people when they need it most - OpenAIopenai.com

    Our goal isn’t to hold people’s attention. Instead of measuring success by time spent or clicks, we care more about being genuinely helpful. When a conversation suggests someone is vulnerable and may be at risk, we have built a stack of layered safeguards i...

  • [12] Strengthening ChatGPT's responses in sensitive conversationsopenai.com

    We worked with more than 170 mental health experts to help ChatGPT more reliably recognize signs of distress, respond with care, and guide people toward real-world support–reducing responses that fall short of our desired behavior by 65-80%. ... We recently...