自然語言處理
Natural Language Processing
處理與理解人類語言的AI技術,包括LLM、文本生成等
共 17 個相關詞彙
大型語言模型 (大語言模型 / 大模型)
Large Language Model (LLM) (LLM / Large Language Model)
在大量文本數據上訓練、能理解和生成自然語言的AI模型
自然語言處理 (NLP)
Natural Language Processing (NLP)
讓電腦理解與生成人類語言的技術
聊天機器人 (對話機器人 / Chatbot)
Chatbot (Chat Bot)
能與人類進行自然對話的AI程式
ChatGPT
ChatGPT
OpenAI 推出的對話式 AI 助手,全球最普及的 [[llm]] 應用產品
分詞
Tokenization
將文本切分為模型可處理的token單位
少樣本學習
Few-shot Learning
僅用少量範例讓模型學會新任務
思維鏈 (CoT / Few Shot CoT)
Chain-of-Thought (CoT / Few Shot CoT)
引導LLM逐步推理的提示技巧
零樣本學習
Zero-shot Learning
模型在未見過該類別範例下進行預測
Claude
Claude
Anthropic開發的AI助手,以安全性和有用性著稱
GPT (生成式預訓練變換器)
Generative Pre-trained Transformer (GPT)
OpenAI開發的生成式預訓練Transformer模型系列
OpenAI API
OpenAI API
訪問GPT等頂級語言模型的API服務
注意力機制 (注意力)
Attention Mechanism (Self-Attention)
讓模型專注於輸入重要部分的機制
嵌入向量 (嵌入 / 詞嵌入 / 向量嵌入) (Embedding Lookup)
Embedding (Word Embedding) (Embedding Lookup)
將離散數據(如文字)轉換為連續向量表示
檢索增強生成 (RAG)
Retrieval-Augmented Generation (RAG)
結合外部知識檢索和語言生成的AI技術
AI代理
AI Agent
能自主完成多步驟任務的智能系統
BERT (雙向編碼器表示)
BERT (Bidirectional Encoder Representations from Transformers)
Google開發的雙向Transformer編碼器,用於理解文本
Transformer架構 (變換器 / 注意力模型) (Switch Transformer)
Transformer Architecture (Switch Transformer)
使用注意力機制處理序列數據的革命性神經網絡架構