少樣本學習

Few-shot Learning

僅用少量範例讓模型學會新任務

詳細解釋

讓模型僅用極少量樣本(幾個到幾十個)就能學習新任務的能力,無需微調整個模型,是提示工程和模型適配的核心技術。

核心原理:

  • 上下文學習(In-Context Learning):樣本放在提示詞中,模型從示例推斷模式
  • 預訓練知識遷移:大模型已學習大量任務模式,只需「激活」正確模式
  • 元學習:「學習如何學習」,模型學會快速適應新任務

為何有效:

  • 大規模預訓練已涵蓋各種任務模式
  • 注意力機制能從少量示例提取關鍵信息
  • 類比推理:從 A→B 的映射,推導 C→?

典型設置:

  • Zero-shot:無示例,僅指令
  • One-shot:1 個示例
  • Few-shot:2-10 個示例(太多會佔用上下文窗口)

最佳實踐:

  • 多樣性:示例應覆蓋不同情況
  • 一致性:輸入輸出格式統一
  • 順序:最相關的示例放在後面(離問題近)
  • 標籤分布:平衡正負例

局限性:

  • 複雜推理:純 few-shot 可能不足,需 CoT
  • 長上下文:示例佔用 token,減少可用空間
  • 隨機性:示例順序和選擇影響結果

與微調的對比:

  • Few-shot:無需訓練,即時適應,但性能有限
  • 微調:需要數據和計算,但性能更好、更穩定

應用:分類、摘要、翻譯、數據提取等幾乎所有 NLP 任務。

這是「大模型魔法」的核心—— 從例子中學習,無需重新訓練。

相關AI領域

探索更多AI詞彙

查看所有分類,繼續學習AI知識