詳細解釋
幻覺(Hallucination)指大型語言模型 (大語言模型 / 大模型)生成看似合理但實際虛假、錯誤或無根據的資訊,是當前AI (人工智能)系統的主要挑戰之一。
幻覺類型:
- 事實幻覺:編造不存在的資訊
- 引用幻覺:生成虛假的參考來源
- 邏輯幻覺:前後矛盾的推理
- 身份幻覺:錯誤聲稱能力或身份
為何發生:
- 模型目標是生成流暢文本,非事實準確
- 訓練數據包含錯誤資訊
- 過度自信:對錯誤答案也給出高概率
- 知識缺口:遇到訓練數據外的問題
減少方法:
- 檢索增強生成 (RAG):基於檢索的真實數據生成
- 事實核查:多步驟驗證流程
- 提示工程:要求模型不確定時承認
- 人機協作:關鍵資訊人工審核
- 專用模型:如GPT-4比GPT-3.5幻覺少
用戶應對:
- 驗證重要資訊
- 要求提供來源
- 對專業領域保持警惕
- 使用多個來源交叉驗證
是AI (人工智能)可信度與負責任使用的核心問題。