詳細解釋
泛指 AI 系統輸出的可理解性、透明度和可信度。當 AI 給出答案時,用戶能否理解其邏輯、驗證其依據、評估其可靠性,這些都屬於 AI Clarity 的範疇。
組成維度:
- 解釋性:AI 能否說明「為什麼這樣回答」(可解釋性)
- 可驗證性:輸出是否附帶來源、引用、推理過程(思維鏈 (CoT / Few Shot CoT))
- 校準度:AI 是否知道「自己不確定」並表達出來(校準 (機率校準 / Calibration))
- 一致性:相同問題多次詢問,答案是否穩定
實踐案例:
- Perplexity AI:每個答案附帶來源鏈接,用戶可點擊驗證
- GPT-4 的「瀏覽」模式:實時搜索並引用網頁
- Claude 的「思考過程」:在某些提示下展示推理鏈
- 醫療 AI:診斷建議必須附帶症狀依據和置信度
商業價值:高 Clarity 的 AI 產品用戶信任度更高,特別在專業場景(法律、醫療、金融)。監管趨勢(如歐盟 AI 法案的「解釋權」)也推動企業投資此領域。
挑戰在於「解釋」與「性能」的權衡:最強大的模型(如 GPT-4)往往最難解釋,而可解釋的規則系統性能有限。