詳細解釋
AI 界面設計模式,讓模型在回答前展示其推理過程(Chain-of-Thought),而非直接輸出答案。類似數學考試要求「展示計算步驟」。
典型實現:
- Claude 的「Artifacts」:可見的思維鏈文件
- Perplexity 的「Pro」模式:分解搜索步驟
- o1-preview 等推理模型:內部思考過程可選可見
- 自定義提示:「讓我們一步步思考」(Let's think step by step)
價值:
- 可驗證性:用戶可檢查邏輯是否正確
- 可解釋性:理解 AI 為何給出此答案
- 可糾正:發現錯誤步驟時可介入
- 教育性:學習解決問題的方法
成本與隱私權衡:
- 展示思考過程會增加 token 使用量(更貴)
- 某些應用(如醫療、法律)強制要求可解釋性
- 某些場景(如創意寫作)思考過程無意義
技術挑戰:
- 模型可能「偽造」思考過程(看起來合理但非真實推理)
- 如何區分「內部思考」和「最終輸出」的界面呈現
這是「AI 透明度」運動的一部分,回應了對黑盒 AI 的批評,特別在高風險決策場景。