詳細解釋
遷移學習(Transfer Learning)是將一個任務學到的知識應用到相關任務的技術,利用預訓練模型加速學習,減少數據需求,是現代深度學習的標準實踐。
核心思想:
- 預訓練:在大規模數據上學習通用表示
- 微調:在特定任務數據上適應
- 知識遷移:通用知識幫助特定任務
過程:
- 預訓練:
- 大規模數據(如互聯網文本)
- 自監督任務(語言建模)
- 學習通用特徵表示
- 微調(Fine-tuning):
- 加載預訓練權重
- 在下游任務訓練
- 可選:凍結部分層
為何有效:
- 特徵重用:低層特徵通用(邊緣、語法)
- 正則化:預訓練權重提供好的初始化
- 數據效率:少量數據即可達到好效果
- 收斂快:微調比從頭訓練快得多
應用模式:
- 特徵提取:凍結預訓練模型,只訓練分類頭
- 完全微調:所有參數都更新
- 部分微調:只微調高層或特定層
- 適配器:插入小模塊微調
領域:
- NLP:
- 預訓練:BERT、GPT在大文本
- 微調:情感分析、問答、NER
- LLM時代:上下文學習、提示工程
- 計算機視覺:
- 預訓練:ImageNet分類
- 微調:目標檢測、分割
- 語音:
- 預訓練:大規模語音數據
- 微調:特定語者或任務
與相關概念:
- Fine-tuning:遷移學習的實現方式
- 領域適應:特定類型的遷移
- 終身學習:連續多任務遷移
- 元學習:學習如何遷移
成功關鍵:
- 預訓練任務與下游任務相關
- 預訓練數據質量和規模
- 適當的微調策略
遷移學習是深度學習效率提升的關鍵。