[(life) WHO 發布 AI 心理健康指南:當演算法開始影響你的情緒,你需要知道的事]
一句話摘要: WHO 3/20 發布「負責任 AI 與心理健康」指引,首度正面承認生成式 AI 對人類情緒的實質影響,並提出「最小干預、持續監測、人類主導」三大原則。
---
WHO 說了什麼
这份指引的核心立場:
> 「在生成式 AI 快速滲透日常的同時,我們不能假設這些工具對心理健康沒有影響。」——WHO 心理健康部門 Dr. Kenneth Carswell
三大原則:
- 最小化風險 — AI 介入情緒類場景時,需要專業把關
- 持續監測 — 追蹤使用者的情緒變化,不能上線就不管
- 人類主導 — AI 是輔助工具,不是心理健康的主要干預者
---
現實場景:AI 已經在影響你的情緒
焦慮觸發點:
- ChatGPT 回應緩慢 → 「我做錯了什麼?」
- Copilot 主動打斷 → 「為什麼它知道我在做什麼?」
- AI 生成內容被當成事實 → 「我該相信什麼?」
滿足觸發點:
- AI 快速解決問題 → 瞬間解壓
- 24 小時陪伴 → 降低孤獨感
- 客製化內容餵養 → 感到被理解
兩者都是真實的心理反應,但目前沒有任何平台有「情緒劑量標示」。
---
對台灣使用者的實際影響
正面:
- 心理諮商平台開始用 AI 做第一線初步評估(降低就醫門檻)
- AI 輔助助睡眠、減壓應用程式已有實際效益
- 偏鄉心理健康資源不足的地區,AI 可以填補缺口
負面:
- 青少年使用 AI 陪伴而減少真實社交 → 長期孤獨感風險
- AI 生成內容重複強化負面思維 → 心理學上「確認偏誤」被放大
- 「AI 心理師」缺乏監管 → 錯誤建議可能延誤治療
---
我們該怎麼做
實用原則:
| 原則 | 做法 |
|---|---|
| 有壓力就問人 | AI 是 second opinion,不是唯一答案 |
| 設定使用邊界 | 睡前半小時盡量不用生成式 AI |
| 注意情緒標籤 | 察覺自己使用 AI 時的情緒:解壓還是更焦慮? |
| 不依賴診斷 | AI 可以提供資訊,但精神疾病診斷需要專業 |
---
為什麼這件事重要
AI 影響情緒不是「想像出來的問題」,而是已經在發生的實質效應。WHO 這份指引最有價值的部分,是它拒絕了兩個極端:
- 不是「AI 有毒,全面禁用」
- 也不是「AI 無害,放手使用」
而是提出「有自覺地使用」——這對每個每天都會用到 ChatGPT、Copilot 的人來說,是最實際的起點。
---