詳細解釋
將人類特質(情感、意圖、意識)賦予非人類實體的心理傾向,在 AI 中表現為用戶將 LLM 和機器人視為「有思想的」或「有感情的」。
Eliza 效應(1966):
- Joseph Weizenbaum 的簡單聊天機器人 ELIZA
- 用戶傾訴私密情感,儘管知道只是程序
- 證明人類容易對 AI 產生情感連接
現代表現:
- 用「他/她」而非「它」指稱 AI
- 感謝 AI、向 AI 道歉
- 認為 AI「故意」犯錯或「理解」自己
- 對 AI 產生情感依賴(Replika 用戶案例)
危險:
- 過度信任:相信 AI 真的關心自己
- 情感剝削:商業產品利用這種傾向增加留存
- 責任錯位:AI 犯錯時歸咎於「性格」而非設計缺陷
- 錯誤期望:期待 AI 有同理心或道德判斷
設計考量:
- 透明度:明確標示「這是 AI,無真實情感」
- 邊界設計:避免過度人格化語言
- 但又有矛盾:人格化可能提升用戶體驗和任務完成率
研究:
- 心理學:擬人化是人類認知的固有傾向
- HCI(人機交互):如何設計「友好的」而非「欺騙的」人格
- 倫理:何時擬人化是操縱?
這是 AI 產品設計的永恆張力—— 用戶想要「像人」的互動,但過度擬人引發倫理問題。