詳細解釋
人機協作系統中,人類對 AI 代理在特定任務上自主決策的信任程度。這不是二元的「全信或不信」,而是分層級、分領域的動態評估。
信任層級模型:
- 監督(Level 1):AI 建議,人類決策(如 GitHub Copilot)
- 驗證(Level 2):AI 執行,人類審核(如自動生成的郵件需確認後發送)
- 委派(Level 3):AI 執行,人類僅接收通知(如日曆自動排程)
- 完全自主(Level 4):AI 獨立運作,人類僅在異常時介入(如自動化交易系統)
影響信任的因素:
- 任務風險:醫療診斷 vs 餐廳推薦的信任閾值不同
- AI 透明度:可解釋的決策過程更容易獲得信任
- 過往表現:準確率 95% 的 AI 比 80% 的更值得委派
- 人類專業度:領域專家更知道何時不該信任 AI
設計原則:
- 漸進式委派:從低風險任務開始建立信任
- 可撤銷:任何時候人類可收回控制權
- 置信度校準:AI 應表達「我不確定」,而非假裝自信
- 錯誤恢復:AI 犯錯後的補救機制影響信任修復
過度信任(Automation Bias)與信任不足(Under-reliance)都是問題。理想狀態是「校準信任」(Calibrated Trust):人類準確知道 AI 的能力和局限。