詳細解釋
NVIDIA 於 2024 年 GTC 大會發布的新一代 GPU 架構,繼 Hopper(H100)之後的旗艦產品,專為生成式 AI 和加速計算設計。
核心創新:
- AI 性能:FP8 精度下 20 petaFLOPS,Hopper 的 4 倍
- Transformer Engine 2.0:動態選擇 FP8/FP16,提升 LLM 訓練速度
- NVLink 6.0:單一 GPU 內部帶寬 1.8 TB/s,多 GPU 互聯速度翻倍
- 解壓引擎:專用硬件加速模型加載,減少 CPU 瓶頸
- 可靠性:RAS(Reliability, Availability, Serviceability)引擎,預測性故障檢測
產品形態:
- B100/B200:單卡和雙卡(將兩個 GPU 晶片封裝在一起)
- GB200:Grace CPU + Blackwell GPU 的超級芯片
- DGX GB200:完整系統,液冷設計,AI 算力達 1.4 exaFLOPS
軟體生態:
- CUDA 12、TensorRT-LLM、NeMo 全面優化
- 與 Hopper 代碼兼容,現有模型可無縫遷移
市場定位:
- 目標客戶:訓練萬億參數模型的大型 AI 實驗室(OpenAI、Anthropic、Meta)
- 競爭對手:AMD MI300X、Google TPU v5、Amazon Trainium2
- 供應鏈:台積電 4nm 工藝,CoWoS 封裝,HBM3E 記憶體
發貨時間:2024 年底小批量,2025 年大規模出貨。目前已知的最大訂單來自 Meta(用於訓練 Llama 4)和 Microsoft(Azure AI 基礎設施)。
這是 NVIDIA 維持 AI 訓練市場主導地位的關鍵產品,但也面臨客戶尋求替代供應商以降低依賴的壓力。