低秩適配 (LoRA)

LoRA (Low-Rank Adaptation)

高效微調大型模型只更新少量參數的技術

詳細解釋

LoRA(Low-Rank Adaptation)是高效的微調方法,通過低秩矩陣近似權重更新,只訓練少量參數,適配大模型而無需全量微調。

原理:

  • 凍結預訓練權重W
  • 訓練低秩矩陣A、B
  • 更新:W' = W + BA
  • 秩r << d(隱藏維度)

優勢:

  • 參數高效:只訓練1-10%參數
  • 存儲小:每任務只存A、B矩陣
  • 切換快:不同任務快速切換
  • 無推理延遲:可合併權重
  • 不損失預訓練知識

應用:

  • LLM微調:7B、70B模型適配
  • 多任務:為每任務訓練不同LoRA
  • 持續學習:增量添加新任務
  • 個性化:用戶級別適配

與全微調對比:

  • LoRA:更快、更省、可切換
  • 全微調:可能更高性能(數據充足時)
  • 組合:先LoRA再考慮全微調

工具:

  • Hugging Face:Peft庫
  • 簡單整合:幾行代碼啟用
  • 社區:大量開源LoRA模型

LoRA是大模型高效適配的標準方法。

探索更多AI詞彙

查看所有分類,繼續學習AI知識