模型架構

Model Architecture

各種AI模型架構與技術原理,深入了解模型運作方式

263 個詞彙

分類

Classification

1

預測離散類別

模型架構查看詳情

生成式AI

Generative AI

1

能創造文字、圖像、音訊等新內容的AI技術

模型架構查看詳情

自然語言處理 (NLP)

Natural Language Processing (NLP)

1

讓電腦理解與生成人類語言的技術

模型架構查看詳情

最大token數

Max Tokens

1

限制生成長度的參數

模型架構查看詳情

電腦視覺

Computer Vision

1

讓機器看見並理解影像的AI技術

模型架構查看詳情

模型架構

Model Architecture

1

[[neural-network]] 或 ML 模型的層級結構、連接方式與模組設計,如 [[transformer]]、[[cnn]]、ResNet 等。

模型架構查看詳情

上下文長度

Context Length

2

模型可接受的最大token數

模型架構查看詳情

上下文感知補全

Context-aware Completion

2

依專案上下文提供智慧補全

模型架構查看詳情

下詞預測

Next-token Prediction

2

預測序列中下一個token的訓練目標

模型架構查看詳情

大型多模態模型

LMM (Large Multimodal Models)

2

原生支援多模態的大模型

模型架構查看詳情

小型語言模型

SLM

2

Small Language Models,如Phi、Gemma

模型架構查看詳情

工作記憶

Working Memory

2

短期/對話內記憶

模型架構查看詳情

工具使用

Tool Use

2

LLM調用外部工具的能力

模型架構查看詳情

分詞

Tokenization

2

將文本切分為模型可處理的token單位

模型架構查看詳情

少樣本學習

Few-shot Learning

2

僅用少量範例讓模型學會新任務

模型架構查看詳情

文本編碼器

Text Encoder

2

將文本轉為向量的編碼器

模型架構查看詳情

世界模型

World Model

2

對環境與因果規律的內部表徵,用於預測下一狀態或生成軌跡,常見於 [[reinforcement-learning]]、視訊生成與規劃。

模型架構查看詳情

全能多模態模型

Omni-model

2

原生支援圖/影/音的多模態模型

模型架構查看詳情

多模態

Multimodal

2

能同時處理文字、圖像、音訊等多種輸入的模型

模型架構查看詳情

多模態LLM

Multimodal LLM

2

能處理圖文等多種輸入的LLM

模型架構查看詳情

池化

Pooling

2

縮小特徵圖尺寸的取樣層

模型架構查看詳情

自我修正

Self-Correction

2

發現錯誤並修正

模型架構查看詳情

自然語言生成

NLG

2

讓機器產生人類語言的技術

模型架構查看詳情

自然語言理解

NLU

2

讓機器理解人類語言意圖與語義的技術

模型架構查看詳情

束搜尋

Beam Search

2

保留多個候選序列的解碼策略

模型架構查看詳情

決策樹

Decision Tree

2

以樹狀結構做分類或迴歸的模型

模型架構查看詳情

系統提示詞

System Prompt

2

設定LLM全局行為與角色的隱藏指令

模型架構查看詳情

卷積

Convolution

2

用濾波器在輸入上滑動提取特徵的運算

模型架構查看詳情

命名實體識別

NER

2

識別文本中人名、地名等實體的NLP任務

模型架構查看詳情

垂直領域大模型

Vertical LLMs

2

專注單一產業的 LLM

模型架構查看詳情

知識截止日期

Knowledge Cutoff

2

模型訓練數據的時間邊界

模型架構查看詳情

空間智慧 (Spatial Intelligence)

Spatial Intelligence (spatial intelligence)

2

理解與推理空間關係、幾何、導航與 3D 結構的 AI 能力

模型架構查看詳情

長上下文

Long Context

2

支持超長輸入的LLM能力

模型架構查看詳情

長期記憶

LTM

2

持久化儲存的記憶

模型架構查看詳情

思考型模型

Thinking Models

2

具內部推理過程的模型(如 OpenAI o1)

模型架構查看詳情

思考過程顯示

Thinking Process

2

展現模型中間推理的顯示(如 o1)

模型架構查看詳情

思維鏈 (CoT / Few Shot CoT)

Chain-of-Thought (CoT / Few Shot CoT)

2

引導LLM逐步推理的提示技巧

模型架構查看詳情

指令模型

Instruct Model

2

經過對齊可對話的模型

模型架構查看詳情

指令遵循

Instruction Following

2

按人類指令執行的能力

模型架構查看詳情

負面提示詞

Negative Prompt

2

指定生成時不要出現的內容

模型架構查看詳情

重複懲罰

Repetition Penalty

2

降低重複輸出的取樣參數

模型架構查看詳情

記憶 (Memory Optimization) (Memory Wall)

Memory (Memory Optimization) (Memory Wall)

2

Agent儲存與調用歷史的機制

模型架構查看詳情

記憶檢索

Memory Retrieval

2

從記憶中找回相關資訊

模型架構查看詳情

停止序列

Stop Sequences

2

遇此序列即停止生成

模型架構查看詳情

停用詞

Stopwords

2

預處理時通常移除的常見無實義詞

模型架構查看詳情

動作空間

Action Space

2

RL中可選動作的集合

模型架構查看詳情

基礎模型

Foundation Model

2

可泛化到多任務的大型預訓練模型

模型架構查看詳情

基礎模型

Base Model

2

未經指令對齊的預訓練模型

模型架構查看詳情

專案層級上下文

Project Context

2

專案層級的上下文理解

模型架構查看詳情

情境式學習

In-context Learning

2

LLM從提示中的範例學習任務的能力

模型架構查看詳情

採樣步數

Steps

2

擴散去噪的迭代次數

模型架構查看詳情

視覺語言模型

VLM

2

結合視覺與語言的模型

模型架構查看詳情

視覺語言模型

VLM (Vision-Language Model)

2

可理解圖像並產出文字的模型

模型架構查看詳情

貪婪解碼

Greedy Decoding

2

每步選機率最高token的解碼方式

模型架構查看詳情

嵌入維度

Embedding Dimension

2

嵌入向量的大小

模型架構查看詳情

嵌入模型

Embedding Model

2

將文本或圖像轉為向量的模型

模型架構查看詳情

智能體人格設定

Agent Persona

2

Agent 的角色、風格與行為設定

模型架構查看詳情

湧現行為 (Emergent Behavior)

Emergent Behavior (emergent behavior)

2

模型規模達一定門檻後突然出現、未經明確程式設計的能力或行為

模型架構查看詳情

結構化輸出

Structured Outputs

2

強制 LLM 輸出 JSON 等格式

模型架構查看詳情

詞袋模型

Bag of Words

2

忽略詞序只計詞頻的文本表示方法

模型架構查看詳情

感知器

Perceptron

2

最簡單的神經網絡單元,線性二分類器

模型架構查看詳情

溫度

Temperature

2

控制LLM輸出隨機性的取樣參數

模型架構查看詳情

解碼器

Decoder

2

從內部表示生成輸出的網路部分

模型架構查看詳情

零樣本學習

Zero-shot Learning

2

模型在未見過該類別範例下進行預測

模型架構查看詳情

預訓練模型

Pretrained Model

2

在大規模數據上預先訓練的模型

模型架構查看詳情

端到端學習

End-to-End Learning

2

從輸入到輸出一體化學習

模型架構查看詳情

聚類 (Spectral Clustering)

Clustering (Spectral Clustering)

2

將樣本分組

模型架構查看詳情

語言建模

Language Modeling

2

預測序列中下一個詞的任務

模型架構查看詳情

語料庫

Corpus

2

用於訓練或評估的文本數據集合

模型架構查看詳情

影像分類

Image Classification

2

將整張影像判定為單一類別的視覺任務

模型架構查看詳情

歐幾里得距離

Euclidean Distance

2

L2距離

模型架構查看詳情

編碼器

Encoder

2

將輸入轉為內部表示的網路部分

模型架構查看詳情

複合式 AI 系統

Compound AI Systems

2

由多個模型與工具組合而成

模型架構查看詳情

餘弦相似度

Cosine Similarity

2

衡量兩向量夾角的相似度指標

模型架構查看詳情

激活函數

Activation Function

2

為神經元引入非線性的函數

模型架構查看詳情

隨機森林 (Balanced Random Forest)

Random Forest (Balanced Random Forest)

2

多棵決策樹投票的集成學習方法

模型架構查看詳情

頻率懲罰

Frequency Penalty

2

依出現頻率懲罰的取樣參數

模型架構查看詳情

環境感知力

Contextual Awareness

2

AI 理解當下情境與環境的能力

模型架構查看詳情

點積

Dot Product

2

向量的內積

模型架構查看詳情

邊緣檢測

Edge Detection

2

找出影像中物體邊界的技術

模型架構查看詳情

觀察空間

Observation Space

2

RL中環境狀態的表示

模型架構查看詳情

Function Calling API

Function Calling

2

讓LLM調用外部函數

模型架構查看詳情

GPT (生成式預訓練變換器)

Generative Pre-trained Transformer (GPT)

2

OpenAI開發的生成式預訓練Transformer模型系列

模型架構查看詳情

Grad-CAM (梯度加權類別活化圖)

Grad-CAM (Gradient-weighted Class Activation Mapping)

2

以最後卷積層梯度加權產生熱力圖,視覺化 [[cnn]] 預測時關注的影像區域,用於可解釋性。

模型架構查看詳情

K均值聚類

K-Means

2

將數據聚為K群的無監督方法

模型架構查看詳情

K近鄰

K-NN

2

依最近K個鄰居投票的分類方法

模型架構查看詳情

Logits

Logits

2

未歸一化的機率值

模型架構查看詳情

LRM (大型推理模型 / Large Reasoning Models)

Large Reasoning Models (LRM)

2

具備深層邏輯推理能力的模型,如 OpenAI o1 系列,強調推理而非僅語言模式

模型架構查看詳情

N元語法

N-gram

2

連續N個詞或字的序列

模型架構查看詳情

ReLU (線性整流單元)

ReLU (Rectified Linear Unit)

2

最常用的神經網絡激活函數

模型架構查看詳情

Seq2Seq

Sequence to Sequence

2

序列到序列模型,輸入輸出皆為序列的架構

模型架構查看詳情

Sigmoid

Sigmoid

2

將輸入壓縮到 0-1 範圍的 S 型激活函數

模型架構查看詳情

Softmax

Softmax

2

將向量轉為機率分布的歸一化函數

模型架構查看詳情

Swish

Swish

2

Google 提出的自門控平滑激活函數

模型架構查看詳情

T5

Text-to-Text Transfer Transformer

2

Google 的文本到文本統一框架 Transformer

模型架構查看詳情

Tanh

Tanh

2

將輸入壓縮到 -1 到 1 的雙曲正切激活函數

模型架構查看詳情

TF-IDF

TF-IDF

2

詞頻-逆向文件頻率的文本特徵權重方法

模型架構查看詳情

反思機制

Reflection Mechanism

3

生成後自我檢查

模型架構查看詳情

支持向量機

SVM

3

基於最大間隔的經典分類算法

模型架構查看詳情

去噪

Denoising

3

從噪聲還原信號

模型架構查看詳情

交叉編碼器

Cross-Encoder

3

查詢與文檔聯合編碼

模型架構查看詳情

多跳推理

Multi-hop Reasoning

3

需多步推論才能得出答案

模型架構查看詳情

多頭注意力

Multi-head Attention

3

並行多組注意力以捕捉不同關係

模型架構查看詳情

自回歸解碼

Autoregressive Decoding

3

逐token生成的解碼方式

模型架構查看詳情

自注意力機制

Self-Attention

3

讓序列中每個位置關注其餘位置的注意力機制

模型架構查看詳情

自編碼器

Autoencoder

3

學習數據壓縮與重建的神經網絡

模型架構查看詳情

位置編碼

Positional Encoding

3

為Transformer注入序列位置資訊

模型架構查看詳情

序列到序列

Seq2Seq

3

輸入與輸出皆為序列的模型架構

模型架構查看詳情

折扣因子

Discount Factor

3

未來獎勵的折現係數

模型架構查看詳情

卷積神經網絡 (CNN)

Convolutional Neural Network (CNN)

3

專門處理圖像數據的神經網絡架構

模型架構查看詳情

注意力機制 (注意力)

Attention Mechanism (Self-Attention)

3

讓模型專注於輸入重要部分的機制

模型架構查看詳情

物體檢測

Object Detection

3

在影像中定位並辨識物體類別的技術

模型架構查看詳情

知識圖譜

Knowledge Graph

3

以圖結構組織實體與關係的知識庫

模型架構查看詳情

表示學習

Representation Learning

3

自動學習數據表示

模型架構查看詳情

長短期記憶網絡

LSTM

3

解決長期依賴問題的循環神經網絡架構

模型架構查看詳情

長程推理

Long-term Reasoning

3

跨多步驟的連貫推理

模型架構查看詳情

門控循環單元

GRU

3

LSTM的簡化版,少參數的序列建模架構

模型架構查看詳情

前饋網絡

FFN

3

Transformer中的兩層全連接子模組

模型架構查看詳情

姿態估計

Pose Estimation

3

估計人體或物體關節位置的技術

模型架構查看詳情

思維骨架

Skeleton-of-Thought

3

先骨架再填充

模型架構查看詳情

指令微調

Instruction Tuning

3

用指令-回應對微調模型以遵循人類指令

模型架構查看詳情

時間一致性

Temporal Consistency

3

影片幀間的連貫性

模型架構查看詳情

矩陣分解

Matrix Factorization

3

將矩陣分解為低秩因子

模型架構查看詳情

動態目標設定

Dynamic Goal Setting

3

AI 可依情境調整目標

模型架構查看詳情

基因演算法

Genetic Algorithm

3

模擬進化過程的優化算法

模型架構查看詳情

密度鏈

Chain-of-Density

3

CoD,摘要的密度優化

模型架構查看詳情

專家混合模型

Mixture of Experts

3

多專家子網絡的架構

模型架構查看詳情

採樣器

Sampler

3

擴散模型中的去噪採樣

模型架構查看詳情

探索與利用

Exploration vs. Exploitation

3

嘗試新事物與利用已知的取捨

模型架構查看詳情

推理標記

Reasoning Tokens

3

模型思考時內部消耗的 Token

模型架構查看詳情

推論時擴展

Inference-time Scaling

3

在回答時花更多時間思考以提高品質

模型架構查看詳情

梅爾頻譜

Mel Spectrogram

3

人耳感知的頻譜表示

模型架構查看詳情

梯度提升

Gradient Boosting

3

迭代添加模型以修正殘差的集成方法

模型架構查看詳情

規劃演算法

Planning Algorithms

3

拆解步驟的規劃能力

模型架構查看詳情

逐位置前饋網路

Position-wise Feed-Forward

3

Transformer中每位置獨立的前饋層

模型架構查看詳情

單樣本學習

One-shot Learning

3

僅用單一範例學習新類別

模型架構查看詳情

嵌入向量 (嵌入 / 詞嵌入 / 向量嵌入) (Embedding Lookup)

Embedding (Word Embedding) (Embedding Lookup)

3

將離散數據(如文字)轉換為連續向量表示

模型架構查看詳情

循環神經網絡 (RNN)

Recurrent Neural Network (RNN)

3

處理序列數據的神經網絡,有記憶能力

模型架構查看詳情

提示微調

Prompt Tuning

3

只訓練軟提示

模型架構查看詳情

殘差連接

Residual Connection

3

跳過連接以緩解梯度消失

模型架構查看詳情

殘差網絡

ResNet

3

透過殘差連接訓練極深網絡的架構

模型架構查看詳情

無限上下文

Infinite Context

3

透過 RAG 或長緩存實現的虛擬無限長度

模型架構查看詳情

稀疏架構

Sparse Architectures

3

每次只激活部分參數的架構

模型架構查看詳情

超長上下文窗口

Extended Context Window

3

2M+ tokens 的長上下文

模型架構查看詳情

僅解碼器

Decoder-only

3

如GPT般只含解碼器的模型

模型架構查看詳情

僅編碼器

Encoder-only

3

如BERT般只含編碼器的模型

模型架構查看詳情

溫度縮放

Temperature Scaling

3

調整softmax溫度的校準方法

模型架構查看詳情

稠密 vs 稀疏模型

Dense vs Sparse Models

3

全參數 vs 部分激活的架構對比

模型架構查看詳情

稠密模型

Dense Model

3

所有參數都參與每次運算的神經網絡模型

模型架構查看詳情

經驗回放

Experience Replay

3

重複利用過往經驗的訓練

模型架構查看詳情

跨模態嵌入

Cross-modal Embeddings

3

將不同模態對齊到同一向量空間

模型架構查看詳情

零樣本思維鏈

Zero-shot CoT

3

不給範例即引導模型逐步推理

模型架構查看詳情

預訓練目標

Pre-training Objective

3

預訓練階段的優化目標

模型架構查看詳情

實體分割

Instance Segmentation

3

區分同類別不同個體的分割任務

模型架構查看詳情

實體連結

Entity Linking

3

將文本中的實體對應到知識庫

模型架構查看詳情

監督微調

SFT

3

用標記數據微調模型

模型架構查看詳情

語義分割

Semantic Segmentation

3

為影像每個像素標註類別

模型架構查看詳情

價值函數

Value Function

3

估計狀態或動作的期望回報

模型架構查看詳情

層正規化

Layer Normalization

3

對層內特徵正規化的技術

模型架構查看詳情

潛在空間

Latent Space

3

壓縮後的抽象表示空間

模型架構查看詳情

潛在擴散

Latent Diffusion

3

在潛在空間的擴散

模型架構查看詳情

編碼器-解碼器

Encoder-Decoder

3

將輸入編碼後解碼輸出的序列到序列架構

模型架構查看詳情

遮罩語言模型

MLM

3

預測被遮罩位置的預訓練任務

模型架構查看詳情

噪聲調度

Noise Schedule

3

擴散過程的噪聲安排

模型架構查看詳情

聲碼器

Vocoder

3

將特徵轉為音訊的模型

模型架構查看詳情

隱藏狀態

Hidden States

3

神經網絡中間層的表示

模型架構查看詳情

擴散模型 (擴散生成模型)

Diffusion Model

3

通過逐步去除噪聲來生成數據的生成式模型

模型架構查看詳情

雙編碼器

Bi-Encoder

3

查詢與文檔分別編碼

模型架構查看詳情

邏輯鏈

Chain-of-Logic

3

比思維鏈更嚴謹的推導

模型架構查看詳情

驗證鏈

Chain-of-Verification

3

CoVe,生成後驗證

模型架構查看詳情

BERT (雙向編碼器表示)

BERT (Bidirectional Encoder Representations from Transformers)

3

Google開發的雙向Transformer編碼器,用於理解文本

模型架構查看詳情

CFG尺度

CFG Scale

3

分類器自由引導強度

模型架構查看詳情

CLIP

CLIP

3

對齊圖像與文本的對比學習模型

模型架構查看詳情

ControlNet

ControlNet

3

控制擴散模型生成的架構

模型架構查看詳情

Decoding

Decoding

3

LLM產生輸出的階段

模型架構查看詳情

DINO (自監督視覺 Transformer)

DINO (Self-Distillation with No Labels)

3

Meta 提出的自監督 [[vision-transformer]] 訓練方法,無標籤自蒸餾,可學到語義分割與物體邊界。

模型架構查看詳情

GELU

Gaussian Error Linear Unit

3

Transformer常用的激活函數

模型架構查看詳情

IP-Adapter

IP-Adapter

3

用參考圖控制生成的適配器

模型架構查看詳情

LayerNorm

Layer Normalization

3

對層內特徵正規化

模型架構查看詳情

P-Tuning

P-Tuning

3

可學習提示的微調方法

模型架構查看詳情

Prefill

Prefill

3

LLM處理輸入的階段

模型架構查看詳情

Q學習

Q-Learning

3

經典的無模型強化學習算法

模型架構查看詳情

ReAct

ReAct

3

結合推理與行動的Agent框架

模型架構查看詳情

SiLU

SiLU

3

Swish激活函數的別稱

模型架構查看詳情

Top-K取樣

Top-K Sampling

3

只從機率最高的K個token中取樣的策略

模型架構查看詳情

Top-P取樣

Top-P Sampling

3

依累積機率閾值篩選token的取樣策略

模型架構查看詳情

U-Net

U-Net

3

編解碼對稱的醫學影像架構

模型架構查看詳情

U-Net擴散

U-Net Diffusion

3

擴散模型中的U-Net骨幹

模型架構查看詳情

Vision Transformer

ViT

3

將Transformer用於圖像的架構

模型架構查看詳情

Word2Vec

Word2Vec

3

將詞映射為向量的早期嵌入模型

模型架構查看詳情

XGBoost

XGBoost

3

高效梯度提升的實作框架

模型架構查看詳情

YOLO

You Only Look Once

3

實時物件偵測架構

模型架構查看詳情

3D高斯潑濺

3D Gaussian Splatting

4

高效的3D重建與渲染

模型架構查看詳情

一致性模型

Consistency Model

4

單步生成的擴散變體

模型架構查看詳情

人類回饋強化學習

RLHF

4

利用人類偏好數據訓練LLM的對齊方法

模型架構查看詳情

元學習

Meta-learning

4

學習如何學習的更高層學習方法

模型架構查看詳情

分組查詢注意力

GQA

4

Grouped-Query Attention,減少KV頭數

模型架構查看詳情

分數匹配

Score Matching

4

學習分數函數的生成方法

模型架構查看詳情

文本反轉

Textual Inversion

4

訓練特定概念的嵌入

模型架構查看詳情

可微編程

Differentiable Programming

4

整個計算圖可求導的編程

模型架構查看詳情

生成對抗網絡 (GAN)

Generative Adversarial Network (GAN)

4

通過生成器與判別器對抗訓練來生成數據

模型架構查看詳情

交叉注意力

Cross-Attention

4

查詢來自不同序列的注意力

模型架構查看詳情

因果遮罩

Causal Mask

4

防止注意力看到未來token的遮罩

模型架構查看詳情

在線策略學習

On-policy Learning

4

從當前策略產生的數據學習

模型架構查看詳情

多查詢注意力

MQA

4

Multi-Query Attention,共享單一KV頭

模型架構查看詳情

好奇心驅動學習

Curiosity-driven Learning

4

以好奇心為內在獎勵

模型架構查看詳情

自回歸視覺模型

Auto-regressive Vision

4

以自回歸方式生成圖像

模型架構查看詳情

低秩適配 (LoRA)

LoRA (Low-Rank Adaptation)

4

高效微調大型模型只更新少量參數的技術

模型架構查看詳情

均方根歸一化

RMSNorm

4

Root Mean Square Layer Normalization

模型架構查看詳情

貝葉斯網路

Bayesian Network

4

以圖表示變數間機率依賴的模型

模型架構查看詳情

貝爾曼方程

Bellman Equation

4

動態規劃與RL的核心等式

模型架構查看詳情

注意力即一切

Attention Is All You Need

4

提出Transformer的經典論文

模型架構查看詳情

狀態空間模型

SSM

4

State Space Models

模型架構查看詳情

近端策略優化

PPO

4

Proximal Policy Optimization

模型架構查看詳情

非自回歸解碼

Non-autoregressive Decoding

4

可並行生成多token

模型架構查看詳情

前綴微調

Prefix Tuning

4

學習可訓練前綴向量

模型架構查看詳情

思維圖

Graph of Thoughts

4

GoT,圖結構推理

模型架構查看詳情

思維樹

Tree of Thoughts

4

探索多種推理路徑的進階提示技巧

模型架構查看詳情

流匹配

Flow Matching

4

基於流的生成模型

模型架構查看詳情

流形

Manifold

4

高維中的低維結構

模型架構查看詳情

音訊擴散

Audio Diffusion

4

將擴散模型用於音訊生成

模型架構查看詳情

時序差分學習

TD Learning

4

Temporal Difference,增量式價值估計

模型架構查看詳情

核函數技巧

Kernel Trick

4

在高維空間計算而不顯式映射

模型架構查看詳情

神經架構搜索

NAS (Neural Architecture Search)

4

自動搜尋最佳網絡架構

模型架構查看詳情

神經輻射場

NeRF

4

Neural Radiance Fields,3D場景表示

模型架構查看詳情

逆強化學習

IRL

4

從專家行為推斷獎勵函數

模型架構查看詳情

馬可夫決策過程

MDP

4

Markov Decision Process,RL的數學框架

模型架構查看詳情

高效參數微調

PEFT

4

只更新少量參數的微調方法總稱

模型架構查看詳情

旋轉位置嵌入

RoPE

4

Rotary Positional Embedding,旋轉式位置編碼

模型架構查看詳情

混合專家模型 (MoE)

Mixture of Experts (MoE)

4

只激活部分參數來處理輸入的大型模型架構

模型架構查看詳情

無分類器引導

Classifier-free Guidance

4

無需分類器的條件引導

模型架構查看詳情

無標記模型

Token-free Models

4

直接處理位元組的模型

模型架構查看詳情

稀疏注意力

Sparse Attention

4

只關注部分位置的注意力

模型架構查看詳情

稀疏MoE

Sparse MoE

4

每次只用部分專家的MoE

模型架構查看詳情

策略梯度

Policy Gradient

4

直接優化策略的強化學習方法

模型架構查看詳情

滑窗注意力

Sliding Window Attention

4

限定局部窗口的注意力

模型架構查看詳情

解耦表示

Disentangled Representation

4

因子的獨立表示

模型架構查看詳情

路由

Routing

4

MoE中分配輸入給專家

模型架構查看詳情

圖神經網絡

GNN

4

處理圖結構數據的神經網絡

模型架構查看詳情

對比學習

Contrastive Learning

4

拉近相似樣本、推遠不相似樣本的學習

模型架構查看詳情

演員-評論家

Actor-Critic

4

結合策略與價值函數的RL架構

模型架構查看詳情

蒙地卡羅樹搜尋

MCTS

4

透過隨機模擬的樹搜尋方法

模型架構查看詳情

線性注意力

Linear Attention

4

計算複雜度線性的注意力

模型架構查看詳情

線性偏置注意力

ALiBi

4

Attention with Linear Biases,無需位置嵌入

模型架構查看詳情

適配器

Adapter

4

插入式任務適配模組

模型架構查看詳情

環形注意力

Ring Attention

4

分散式長序列注意力

模型架構查看詳情

離線策略學習

Off-policy Learning

4

從與當前策略不同的數據學習

模型架構查看詳情

變分自編碼器 (VAE)

VAE (Variational Autoencoder)

4

結合生成與壓縮的機率自編碼器架構

模型架構查看詳情

BitNet

BitNet

4

極低位元LLM,可在CPU上運行

模型架構查看詳情

BitNet 1.58b

BitNet 1.58b

4

1 位元量化模型技術

模型架構查看詳情

DDIM

Denoising Diffusion Implicit Model

4

確定性採樣的擴散

模型架構查看詳情

DDPM

Denoising Diffusion Probabilistic Model

4

去噪擴散機率模型

模型架構查看詳情

DPO

Direct Preference Optimization

4

直接優化偏好無需獎勵模型

模型架構查看詳情

IA3

Infused Adapter by Inhibiting and Amplifying

4

輕量微調方法

模型架構查看詳情

Mamba

Mamba

4

狀態空間模型,長文本架構

模型架構查看詳情

ORPO

ORPO

4

單階段偏好優化

模型架構查看詳情

Post-Norm

Post-Normalization

4

注意力後做正規化

模型架構查看詳情

Pre-Norm

Pre-Normalization

4

注意力前做正規化

模型架構查看詳情

QLoRA

QLoRA

4

量化LoRA降低顯存需求

模型架構查看詳情

RLAIF

RLAIF

4

用AI回饋替代人類的強化學習對齊

模型架構查看詳情

SwiGLU

SwiGLU

4

結合Swish與GLU的高效激活架構

模型架構查看詳情

Swin Transformer

Swin Transformer

4

分層視覺Transformer架構

模型架構查看詳情

Zero-1-to-3

Zero-1-to-3

4

單圖轉3D的技術

模型架構查看詳情