微調 (模型微調)

Fine-tuning (Fine Tuning / Model Fine-tuning)

在預訓練模型基礎上,使用特定數據進一步訓練以適應特定任務

詳細解釋

微調(Fine-tuning)是遷移學習的具體實踐,在預訓練模型的基礎上,使用特定任務的數據進一步訓練,使模型適應下游任務。

過程:

  1. 預訓練模型:加載已訓練的權重
  2. 任務適配:
  • 添加任務特定頭(分類層等)
  • 調整輸出維度
  1. 訓練:
  • 學習率:通常比預訓練小(2e-5到1e-4)
  • 優化器:AdamW
  • 輪數:通常2-4個足夠

策略:

  • 完全微調:更新所有參數
  • 數據充足時
  • 計算資源允許
  • 層級微調:
  • 凍結底層(通用特徵)
  • 微調高層(任務特定)
  • 或逐層解凍
  • 判別微調(Discriminative Fine-tuning):
  • 不同層不同學習率
  • 底層小,高層大

現代技術:

  • LoRA:低秩適配,只訓練少量參數
  • Prompt-tuning:優化輸入提示
  • Adapter:插入小模塊
  • 凍結主體:保持預訓練知識

注意事項:

  • 災難性遺忘:過度微調損失通用能力
  • 解決:正則化、早停、LoRA
  • 學習率:太大破壞預訓練知識
  • 數據質量:微調數據質量很重要
  • 過擬合:小數據集容易過擬合

應用:

  • NLP:BERT微調到具體任務
  • 視覺:ImageNet預訓練→具體分類
  • LLM:指令微調、領域適應
  • 多模態:CLIP微調到具體檢索

微調是快速適配預訓練模型的有效方法。

相關AI領域

標籤

進階

探索更多AI詞彙

查看所有分類,繼續學習AI知識