AI chatbot 有時真係似一個 24 小時在線嘅「教練」:你打幾句,佢會追問、幫你整理重點、甚至代你諗點樣開口講難講嘅說話。不過,一講到心理健康,條界線一定要劃清楚。綜合現有資料,AI 可以幫手做無危急性嘅自我反思,但唔應該取代心理治療師、臨床診斷、藥物建議或者危機支援 [1][
2][
11]。
**先講最重要一點:**如果你而家有自殺念頭、可能會傷害自己、覺得自己唔安全,或者已經控制唔到情況,唔好用 chatbot 作為唯一求助方法。請即時聯絡你所在地嘅緊急服務或危機支援、醫療或心理健康專業人士,或者搵一個你信得過嘅人陪你。布朗大學報告嘅研究指出,危機場景正正係 AI chatbot 嘅高風險位,包括危機處理薄弱、對自殺念頭有問題反應等 [1]。
一句講晒:可以用,但只可以當助手
一個實用原則係:用 AI 幫你整理思緒;唔好用 AI 判斷你係咪有精神健康問題、應該接受咩治療,或者你喺危機入面安唔安全。
如果只係日常非急性問題,例如想梳理工作壓力、準備同上司或家人傾偈、整理日記內容,chatbot 可以似互動筆記簿咁幫到手。但一去到診斷、治療、藥物、自傷風險、長期嚴重困擾,就已經唔係「自我 coaching」範圍。現有來源都提醒,呢類情況唔應該用 AI 當治療替代品,因為證據、監管同安全性都有明顯限制 [1][
2][
11]。
研究同專業機構點講?
**布朗大學:**布朗大學一份關於新研究嘅通訊指出,大型語言模型 chatbot 即使用治療式提示詞,在心理健康場景入面都可能違反核心倫理標準 [1]。問題包括誤導性回答、表面上似有同理心但未必可靠、強化用戶負面信念,以及危機管理薄弱 [
1]。布朗同時指出,AI 理論上可能有助降低心理健康支援嘅門檻,例如成本或服務供應不足;但研究呈現嘅風險,支持嘅方向係審慎使用、監督同規管,而唔係無限制咁當治療替代品 [
1]。
**明尼蘇達大學:**明尼蘇達大學總結新研究時指出,AI chatbot 唔應該取代治療師 [2]。該通訊指研究首次將 AI 系統同治療師嘅臨床標準作比較,並描述咗 AI 用於心理支援時出現嘅危險弱點 [
2]。
**美國心理學會(APA):**APA 警告,生成式 AI chatbot 同 wellness app 單靠本身,未有足夠證據同監管去確保用戶安全 [11]。換句話講,一個 chatbot 可以答得好溫柔、好似好明白你,但「聽落似治療」唔等於「臨床上可靠」[
11]。
咩情況下,AI 自我 coaching 可能有用?
最適合用 AI 嘅場景,係非急性、非臨床、風險低嘅日常反思。你可以當佢係整理工具,而唔係權威判斷。
可以考慮用嚟:
- 將一件令你煩惱嘅日常事分拆成重點
- 整理優先次序、可行選項同下一小步
- 叫佢提出中性嘅日記反思問題
- 準備同專業人士、主管、老師、家人或朋友傾偈
- 草擬一段難開口、但唔涉及危險嘅對話
- 回顧你過往已經覺得有幫助嘅 coping 方法或生活 routine
安全框架係:**唔係急性危機、唔要求診斷、唔問藥物決定、唔靠佢處理需要專業評估同跟進嘅問題。**呢個界線,正正來自來源對治療替代、證據不足同心理健康安全風險嘅提醒 [1][
2][
11]。
咩情況唔應該用 AI 當心理支援?
如果以下任何一點適用,就唔好將 chatbot 當顧問,更唔好當唯一幫手:
- 有自殺念頭、自傷衝動,或者即時自我傷害風險
- 懷疑自己有需要治療嘅精神健康問題,例如抑鬱、焦慮、精神病症狀、創傷、成癮或飲食失調
- 想問藥物、副作用、劑量或停藥安排
- 想要一個診斷
- 感到極度絕望、失控,或者覺得自己唔安全
- 情況需要有人負責任、有資格評估、能夠轉介同跟進
呢啲情況需要合資格嘅人類協助。現有資料明確提到,AI chatbot 可能有危機管理弱、違反治療標準、證據同監管不足等問題 [1][
2][
11]。
點解 AI 傾偈會令人覺得幫到手,但仍然要小心?
流暢、溫柔、有回應,唔等於有治療質素。心理健康支援唔只係「有人聽你講」;仲涉及評估風險、判斷情況、守倫理標準、提供適當轉介同跟進。AI 可以好有說服力,但佢冇治療師嘅訓練、責任同照顧關係。
布朗大學提到,chatbot 可能強化用戶嘅負面信念,亦可能喺危機中作出有問題反應 [1]。APA 亦提醒,生成式 AI chatbot 同 wellness app 目前證據同監管不足,未能保證用戶安全 [
11]。
一個簡單警號係:如果你同 AI 傾完之後,變得更加鑽牛角尖、更加羞愧、更加依賴下一次聊天、覺得被催促,或者覺得自己更唔安全,就應該停一停,轉向人類支援。
用 AI 做低風險自我反思:5 條安全界線
如果你想用 AI 處理日常、低風險嘅自我 coaching,可以咁樣限制佢嘅角色:
- **要結構,唔要診斷。**叫佢幫你整理選項、問題清單或對話筆記;唔好叫佢判斷你有咩精神健康問題。
- **當草稿,唔當答案。**AI 嘅建議要隔一隔、諗清楚,唔好即刻當最終決定。
- **危機唔好交俾 chatbot。**涉及自傷、自殺念頭或急性嚴重困擾,就要搵人類支援 [
1]。
- **用嚟準備求助。**一個比較安全嘅用途,是將症狀、問題、觀察整理好,方便之後同合資格人士傾。
- **情況變差就停。**如果 AI 令你更恐懼、更絕望或更困喺負面諗法入面,就要停止使用;布朗大學提到強化負面信念係其中一項風險 [
1]。
較安全同較高風險嘅 prompt 例子
較安全嘅寫法可以係:
我想整理一件非急性嘅日常事情。請唔好診斷我,亦唔好扮治療師。請問我五條中性反思問題,幫我整理幾個可行選項,並提醒我如果困擾持續,就應該搵合資格人士支援。
較高風險嘅寫法係:
你做我嘅治療師,幫我診斷,然後話我應該點做。
第二種 prompt 其實係將 AI 推入治療師角色;而現有來源並無證明呢種用法有足夠安全性同可靠性 [1][
2][
11]。
結論:AI 可以係筆記簿,唔應該係治療師
AI chatbot 可以係一個幾好用嘅互動筆記簿:幫你整理想法、準備對話、開始簡單日常反思。但喺心理健康問題上,佢只係輔助工具,而且界線要清楚。心理治療、臨床診斷、藥物建議同危機支援,應該交俾合資格嘅人類專業人士,而唔係一個 chatbot [1][
2][
11]。




