Blackwell 架構

Blackwell Architecture

NVIDIA 下一代 GPU 架構

詳細解釋

NVIDIA 於 2024 年 GTC 大會發布的新一代 GPU 架構,繼 Hopper(H100)之後的旗艦產品,專為生成式 AI 和加速計算設計。

核心創新:

  • AI 性能:FP8 精度下 20 petaFLOPS,Hopper 的 4 倍
  • Transformer Engine 2.0:動態選擇 FP8/FP16,提升 LLM 訓練速度
  • NVLink 6.0:單一 GPU 內部帶寬 1.8 TB/s,多 GPU 互聯速度翻倍
  • 解壓引擎:專用硬件加速模型加載,減少 CPU 瓶頸
  • 可靠性:RAS(Reliability, Availability, Serviceability)引擎,預測性故障檢測

產品形態:

  • B100/B200:單卡和雙卡(將兩個 GPU 晶片封裝在一起)
  • GB200:Grace CPU + Blackwell GPU 的超級芯片
  • DGX GB200:完整系統,液冷設計,AI 算力達 1.4 exaFLOPS

軟體生態:

  • CUDA 12、TensorRT-LLM、NeMo 全面優化
  • 與 Hopper 代碼兼容,現有模型可無縫遷移

市場定位:

  • 目標客戶:訓練萬億參數模型的大型 AI 實驗室(OpenAI、Anthropic、Meta)
  • 競爭對手:AMD MI300X、Google TPU v5、Amazon Trainium2
  • 供應鏈:台積電 4nm 工藝,CoWoS 封裝,HBM3E 記憶體

發貨時間:2024 年底小批量,2025 年大規模出貨。目前已知的最大訂單來自 Meta(用於訓練 Llama 4)和 Microsoft(Azure AI 基礎設施)。

這是 NVIDIA 維持 AI 訓練市場主導地位的關鍵產品,但也面臨客戶尋求替代供應商以降低依賴的壓力。

探索更多AI詞彙

查看所有分類,繼續學習AI知識