HBM3e

HBM3e

高頻寬記憶體第三代增強版

詳細解釋

HBM3E(High Bandwidth Memory 3 Extended)是HBM3的增強版本,提供超過1TB/s的記憶體帶寬,是目前最先進的AI加速器記憶體技術,為大語言模型訓練和推理提供關鍵支持。

與HBM3的改進:

  • 帶寬:從819GB/s提升到超過1.2TB/s
  • 容量:單堆疊24GB(未來可達36GB)
  • 能效:每bit功耗進一步降低
  • 速度:IO速度提升到9.6Gbps

技術特點:

  • 12層堆疊:比HBM3更多的記憶體層
  • TSV技術:改進的矽穿孔連接
  • 先進封裝:與邏輯芯片緊密整合
  • 信號完整性:優化的電氣特性

應用:

  • NVIDIA H200:首款使用HBM3E的GPU
  • 下一代AI芯片:所有高端AI芯片將採用
  • 大模型訓練:支持更大模型的訓練
  • 推理服務:更高吞吐的LLM推理

市場情況:

  • SK海力士:2023年率先量產
  • 三星:緊隨其後推出產品
  • 供應緊張:AI需求遠超供應
  • 價格:比HBM2E顯著更貴

對AI的影響:

  • 模型規模:支持更大參數的模型
  • 批次大小:更大批次的訓練
  • 上下文長度:支持更長的推理序列
  • 能效比:數據中心功耗降低

與HBM4的路線圖:

  • HBM4預計2025-2026年
  • 帶寬目標:超過1.5TB/s
  • 容量:48GB+每堆疊
  • 更緊密整合:邏輯和記憶體的3D整合

HBM3E是當前AI硬件的記憶體性能巔峰。

探索更多AI詞彙

查看所有分類,繼續學習AI知識