詳細解釋
提示微調(Prompt Tuning)是訓練連續的軟提示而非改變模型參數,讓預訓練模型適應特定任務的高效方法。
原理:
- 凍結預訓練模型
- 訓練連續向量(軟提示)
- 前置到輸入前
- 只更新提示參數
與其他方法對比:
- 全微調:更新所有參數
- LoRA:更新低秩矩陣
- 提示微調:只更新輸入嵌入
- 硬提示:人工設計文本提示
優勢:
- 極少參數:通常數百到數千
- 多任務輕鬆切換:不同提示不同任務
- 模組化:組合多個提示
- 保留模型能力:不修改模型
局限:
- 效果:通常不如LoRA
- 序列長度:佔用提示長度
- 複雜任務:可能需要更多參數
應用:
- 多任務學習:每任務一個提示
- 領域適應:領域特定提示
- 組合推理:多提示組合
變體:
- P-tuning v2:多層提示
- Prefix-tuning:前綴調整
提示微調是參數高效適配的另一選擇。