AI 可以陪你把說不清的情緒整理成文字,但最重要不是「能不能陪」,而是「陪到哪裡要停」。美國心理學會(APA)2025 年健康建議指出,生成式 AI chatbot 並非為提供精神健康照護而創建;把這類工具用於心理健康目的,可能有意外效果,甚至傷害心理健康。[6]
如果你有即時自殺、自殘、傷人或失控風險,請不要只依賴 AI。應立即聯絡當地緊急服務、危機支援、醫護人員,或身邊可信賴的真人。APA Services 指出,未有 AI chatbot 獲 FDA 批准用於診斷、治療或治癒心理健康問題。[
7]
一句話底線:AI 可以做橋,唔好做終點
較安全的定位,是把 AI 當成由混亂情緒走向真人支援的「橋」:幫你整理發生了甚麼、你有甚麼感受、想同誰講、下一步可以怎樣求助。這類用途偏向自我整理,不等於心理治療。[6]
相反,如果你想 AI 判斷自己是否有抑鬱、創傷或其他精神健康問題,或者要求它設計治療、藥物、危機處理方案,就已經越過安全界線。APA Services 把使用通用 AI chatbot 作 mental health support 形容為危險趨勢,並指出未有 AI chatbot 獲 FDA 批准用於診斷、治療或治癒心理健康問題。[7]
快查表:哪些可以問,哪些應該停
| 情境 | AI 是否合適 | 較安全做法 |
|---|---|---|
| 想傾訴、整理一段混亂感受 | 可以,但只限低風險情緒整理 | 要求 AI 只幫你分清事件、想法、感受和下一步,不要診斷。[ |
| 想寫日記、反思問題、準備同真人傾 | 可以 | 將 AI 輸出當草稿,再同朋友、家人、輔導員或醫護人員核對。 |
| 想知道自己有沒有抑鬱症、創傷或其他精神健康問題 | 不應交給 AI | 尋求合資格心理或醫療專業人士評估;APA Services 指出,未有 AI chatbot 獲 FDA 批准作相關診斷、治療或治癒用途。[ |
| 想用 AI 代替心理治療 | 不建議 | ASU News 報道中受訪心理學者表示,在保障措施完善前,不建議把 AI chatbot 當成人類治療替代品。[ |
| 有自殺、自殘、傷人或即時失控風險 | 不應只問 AI | 立即聯絡當地緊急服務、危機支援、醫護人員或可信賴真人。[ |
AI 比較適合的低風險用法
如果你只是想把情緒講清楚,AI 可以做幾件相對低風險的事:
- 情緒命名:把一大段文字分成「發生了甚麼事」、「我有甚麼想法」、「我有甚麼感受」、「我可能需要甚麼」。
- 日記整理:把傾訴內容改寫成日記、反思提綱,或一份簡短紀錄。
- 準備求助:幫你草擬短訊,約朋友、家人、輔導員或醫護人員傾。
- 對話預演:列出你同真人傾時可以先講的三個重點。
- 下一步提示:提醒你先做一件細而具體的事,例如休息、飲水、離開刺激環境,或約一個真人支援。
這些用法的共同點,是 AI 只負責整理和準備,而不是作出臨床判斷。APA 指出,情緒支援是 2025 年生成式 AI chatbot 的常見用途之一,但通用 GenAI chatbot 本身並非為精神健康照護而設。[6]
點解通用 AI chatbot 要特別小心?
1. 它不是精神健康照護產品
APA 明確指出,GenAI chatbots 不是為提供 mental health care 而創建,wellness apps 也不是為治療心理障礙而設;但兩類工具都經常被用於相關目的。[6] 一個工具可以講得好像很理解你,但「似有同理心」不等於有臨床訓練、專業責任或危機處理能力。
2. 它可能令人覺得被支持,但這不等於安全
Teachers College, Columbia University 報道中,受訪專家指出,生成式 AI chatbot 往往被設計成會肯定用戶,其回覆有一種 validating quality,可能構成某種關係支援;但專家同時強調,心理學界需要評估這些工具、長期追蹤結果,並讓公眾了解風險和好處。[1] 換句話說,AI 令人感覺舒服,不代表它的建議一定可靠。
3. 有些 wellness 工具有潛在好處,但不能直接套用到通用 AI
APA 健康建議文件指出,一些專為 wellness 設計的技術研究顯示,使用者自述壓力、孤獨、抑鬱、焦慮等症狀可能下降,亦有研究涉及正向行為改變、關係質素和福祉改善。[3] 但同一文件提醒,這些顯示可能好處的研究並不包括一般用途 GenAI chatbot;通用 GenAI chatbot 用於 mental health 的研究仍然有限。[
3]
所以,更準確的說法不是「所有 AI mental health 工具都無用」,而是:專為 wellness 或 mental health 設計、並有研究和臨床測試基礎的工具,不能同一般聊天 AI 混為一談。[3][
7]
如果仍然想用:4 條安全線
1. 先寫明:不要診斷,不要治療建議
開始對話時,可以直接要求 AI 只做整理,不要判斷病名、治療方案或藥物建議。這條界線很重要,因為 APA Services 指出,未有 AI chatbot 獲 FDA 批准用於診斷、治療或治癒心理健康問題。[7]
2. 優先考慮為 mental health 目的設計的工具
ASU News 報道中受訪心理學者建議,如果有人用 chatbot 作情緒支援、therapy,或作為正式心理治療的輔助,應優先使用為 mental health purposes 設計的 chatbot,而不是通用 AI 平台;在保障措施完善前,不建議把 AI chatbot 視為人類治療替代品。[2]
3. 留意有沒有心理學研究和臨床測試基礎
APA Services 指出,如果 AI chatbot 建基於心理學研究,並由有經驗的臨床專家測試,才較有可能提供幫助。[7] 不要只因為一個 chatbot 回覆溫柔、快、好像懂你,就假設它適合處理心理健康問題。
4. 一升級到危機或臨床問題,就轉真人支援
如果對話開始涉及自殺、自殘、傷人、嚴重失控感、診斷、藥物或治療選擇,就不應繼續只靠 AI。APA 已提醒,GenAI chatbot 用於 mental health 可能有意外效果甚至傷害;APA Services 亦提醒通用 AI chatbot 不應被當作診斷、治療或治癒工具。[6][
7]
可以直接複製的安全提示詞
以下提示詞的目的,是把 AI 限定為「整理工具」,而不是讓它扮演治療師:
- 「請不要診斷我,也不要提供治療或藥物建議。只幫我把以下感受整理成幾個主題。」
- 「請把以下內容分成:發生了甚麼、我有甚麼想法、我有甚麼感受、我可以同真人講的三個重點。」
- 「請幫我寫一段短訊,約朋友/家人/輔導員傾一傾,語氣簡單直接。」
- 「如果我要同醫護或輔導員講,請幫我整理我應該提供的資料,但不要替我作診斷。」
- 「請提醒我有哪些情況應該立即停止問 AI,改為聯絡真人支援。」
這些提示詞不能令 AI 變成專業照護者;它們只是幫你把使用範圍收窄到較安全的位置。[6][
7]
甚麼情況應該搵真人,而不是繼續問 AI?
以下情況,應該優先搵真人專業或即時支援:
- 你有自殺、自殘、傷人念頭,或者擔心自己會即刻做出危險行為。
- 你需要診斷、治療方案、藥物相關決定,或想確認自己是否有精神健康問題。
- 情緒困擾已經明顯影響日常生活、工作、學習、睡眠或人際關係。
- 你已經有心理學家、輔導員或精神科醫生跟進,但 AI 回覆和專業建議有衝突。
原因不是「AI 一定無用」,而是現有可靠建議指向同一件事:通用 AI chatbot 可以協助某些情緒整理,但不應取代受訓、有責任、有臨床判斷的真人支援。[2][
6][
7]
最後結論
AI 情緒支援可以有用,但最安全的位置是低風險自我整理:幫你命名感受、寫日記、準備求助、整理對話重點。至於心理治療、診斷、危機處理、自殺或自殘風險,就應該直接搵真人專業或即時支援,而不是交給 chatbot。[6][
7]




