委派信任度

Delegation Trust

對 Agent 委派任務的可信度評估

詳細解釋

人機協作系統中,人類對 AI 代理在特定任務上自主決策的信任程度。這不是二元的「全信或不信」,而是分層級、分領域的動態評估。

信任層級模型:

  • 監督(Level 1):AI 建議,人類決策(如 GitHub Copilot)
  • 驗證(Level 2):AI 執行,人類審核(如自動生成的郵件需確認後發送)
  • 委派(Level 3):AI 執行,人類僅接收通知(如日曆自動排程)
  • 完全自主(Level 4):AI 獨立運作,人類僅在異常時介入(如自動化交易系統)

影響信任的因素:

  • 任務風險:醫療診斷 vs 餐廳推薦的信任閾值不同
  • AI 透明度:可解釋的決策過程更容易獲得信任
  • 過往表現:準確率 95% 的 AI 比 80% 的更值得委派
  • 人類專業度:領域專家更知道何時不該信任 AI

設計原則:

  • 漸進式委派:從低風險任務開始建立信任
  • 可撤銷:任何時候人類可收回控制權
  • 置信度校準:AI 應表達「我不確定」,而非假裝自信
  • 錯誤恢復:AI 犯錯後的補救機制影響信任修復

過度信任(Automation Bias)與信任不足(Under-reliance)都是問題。理想狀態是「校準信任」(Calibrated Trust):人類準確知道 AI 的能力和局限。

探索更多AI詞彙

查看所有分類,繼續學習AI知識