遷移學習

Transfer Learning

將已學知識應用到新任務的學習方法

詳細解釋

遷移學習(Transfer Learning)是將一個任務學到的知識應用到相關任務的技術,利用預訓練模型加速學習,減少數據需求,是現代深度學習的標準實踐。

核心思想:

  • 預訓練:在大規模數據上學習通用表示
  • 微調:在特定任務數據上適應
  • 知識遷移:通用知識幫助特定任務

過程:

  1. 預訓練:
  • 大規模數據(如互聯網文本)
  • 自監督任務(語言建模)
  • 學習通用特徵表示
  1. 微調(Fine-tuning):
  • 加載預訓練權重
  • 在下游任務訓練
  • 可選:凍結部分層

為何有效:

  • 特徵重用:低層特徵通用(邊緣、語法)
  • 正則化:預訓練權重提供好的初始化
  • 數據效率:少量數據即可達到好效果
  • 收斂快:微調比從頭訓練快得多

應用模式:

  • 特徵提取:凍結預訓練模型,只訓練分類頭
  • 完全微調:所有參數都更新
  • 部分微調:只微調高層或特定層
  • 適配器:插入小模塊微調

領域:

  • NLP:
  • 預訓練:BERT、GPT在大文本
  • 微調:情感分析、問答、NER
  • LLM時代:上下文學習、提示工程
  • 計算機視覺:
  • 預訓練:ImageNet分類
  • 微調:目標檢測、分割
  • 語音:
  • 預訓練:大規模語音數據
  • 微調:特定語者或任務

與相關概念:

  • Fine-tuning:遷移學習的實現方式
  • 領域適應:特定類型的遷移
  • 終身學習:連續多任務遷移
  • 元學習:學習如何遷移

成功關鍵:

  • 預訓練任務與下游任務相關
  • 預訓練數據質量和規模
  • 適當的微調策略

遷移學習是深度學習效率提升的關鍵。

探索更多AI詞彙

查看所有分類,繼續學習AI知識