LIME

LIME

局部可解釋模型

詳細解釋

LIME(Local Interpretable Model-agnostic Explanations)是模型無關的局部解釋方法,在預測點附近採樣,用簡單可解釋模型近似複雜模型的局部行為。

原理:

  • 局部性:只解釋單個預測附近
  • 模型無關:適用任何模型
  • 可解釋近似:用線性模型等解釋

過程:

  1. 選擇要解釋的樣本
  2. 附近擾動生成新樣本
  3. 複雜模型預測這些樣本
  4. 加權訓練簡單模型(如線性)
  5. 解釋簡單模型的係數

特點:

  • 局部保真:附近近似好
  • 模型無關:黑箱即可
  • 可解釋:特徵重要性
  • 靈活:多種簡單模型可選

應用:

  • 文本分類:哪些詞導致預測
  • 圖像分類:哪些區域重要
  • 表格數據:特徵貢獻
  • 模型調試:理解錯誤

局限:

  • 不穩定:不同隨機種子不同
  • 偽相關:可能發現虛假模式
  • 局部性:不保證全局一致
  • 選擇偏誤:鄰域定義影響

與SHAP對比:

  • LIME:局部,近似,快
  • SHAP:理論基礎好,慢
  • 都可使用,SHAP更推薦

LIME是實用的模型解釋工具。

探索更多AI詞彙

查看所有分類,繼續學習AI知識