詳細解釋
微調(Fine-tuning)是遷移學習的具體實踐,在預訓練模型的基礎上,使用特定任務的數據進一步訓練,使模型適應下游任務。
過程:
- 預訓練模型:加載已訓練的權重
- 任務適配:
- 添加任務特定頭(分類層等)
- 調整輸出維度
- 訓練:
- 學習率:通常比預訓練小(2e-5到1e-4)
- 優化器:AdamW
- 輪數:通常2-4個足夠
策略:
- 完全微調:更新所有參數
- 數據充足時
- 計算資源允許
- 層級微調:
- 凍結底層(通用特徵)
- 微調高層(任務特定)
- 或逐層解凍
- 判別微調(Discriminative Fine-tuning):
- 不同層不同學習率
- 底層小,高層大
現代技術:
- LoRA:低秩適配,只訓練少量參數
- Prompt-tuning:優化輸入提示
- Adapter:插入小模塊
- 凍結主體:保持預訓練知識
注意事項:
- 災難性遺忘:過度微調損失通用能力
- 解決:正則化、早停、LoRA
- 學習率:太大破壞預訓練知識
- 數據質量:微調數據質量很重要
- 過擬合:小數據集容易過擬合
應用:
- NLP:BERT微調到具體任務
- 視覺:ImageNet預訓練→具體分類
- LLM:指令微調、領域適應
- 多模態:CLIP微調到具體檢索
微調是快速適配預訓練模型的有效方法。
相關AI領域
標籤
進階