幻覺 (AI幻覺 / 模型幻覺)

Hallucination (AI Hallucination)

AI生成虛假或無根據資訊的現象

詳細解釋

幻覺(Hallucination)指大型語言模型 (大語言模型 / 大模型)生成看似合理但實際虛假、錯誤或無根據的資訊,是當前AI (人工智能)系統的主要挑戰之一。

幻覺類型:

  • 事實幻覺:編造不存在的資訊
  • 引用幻覺:生成虛假的參考來源
  • 邏輯幻覺:前後矛盾的推理
  • 身份幻覺:錯誤聲稱能力或身份

為何發生:

  • 模型目標是生成流暢文本,非事實準確
  • 訓練數據包含錯誤資訊
  • 過度自信:對錯誤答案也給出高概率
  • 知識缺口:遇到訓練數據外的問題

減少方法:

  • 檢索增強生成 (RAG):基於檢索的真實數據生成
  • 事實核查:多步驟驗證流程
  • 提示工程:要求模型不確定時承認
  • 人機協作:關鍵資訊人工審核
  • 專用模型:如GPT-4比GPT-3.5幻覺少

用戶應對:

  • 驗證重要資訊
  • 要求提供來源
  • 對專業領域保持警惕
  • 使用多個來源交叉驗證

AI (人工智能)可信度與負責任使用的核心問題。

探索更多AI詞彙

查看所有分類,繼續學習AI知識