語言建模

Language Modeling

預測序列中下一個詞的任務

詳細解釋

語言建模(Language Modeling)是預測序列中下一個詞的機率分布的任務,是NLP的基礎和大型語言模型 (大語言模型 / 大模型)的核心能力。

建模方式:

  • 自回歸:從左到右逐詞預測(GPT)
  • 遮罩:預測被遮罩詞(BERT)
  • 雙向:考慮左右上下文

評估指標:

  • Perplexity 指標:越低越好
  • Cross-Entropy Loss:訓練損失
  • Bits Per Character:每字符位元數

應用:

訓練數據:

  • 網頁、書籍、論文、對話
  • 數據量越大,模型能力越強

現代發展:

探索更多AI詞彙

查看所有分類,繼續學習AI知識