詳細解釋
2012 年成立的美國雲端 GPU 租賃公司,專注 AI 訓練和推理基礎設施,是「AI 雲端」領域的先驅之一。
產品矩陣:
- GPU 雲端:按需租用 NVIDIA A100、H100、RTX A6000、RTX 4090
- 裸機租用:單機最多 8x H100,適合大模型訓練
- 集群租用:數百到數千 GPU 的互聯集群(InfiniBand)
- Lambda Stack:預裝 PyTorch、TensorFlow、CUDA 的機器學習 AMI
定價優勢:
- 通常比 AWS、GCP、Azure 便宜 50-70%
- 無出口帶寬費(雲端巨頭對數據下載收費)
- Spot 實例折扣:閒置 GPU 低至 $0.50/小時(A100)
目標客戶:
- 初創公司:無需大額資本支出(CAPEX)購買硬件
- 研究機構:短期大規模計算需求(實驗、會議 deadline)
- 企業:補充自有數據中心,應對訓練高峰
與 CoreWeave、Together AI 等競爭對手的差異:
- Lambda 歷史最久(2012),最早專注 GPU 雲端
- 同時服務消費級(RTX 4090)和企業級(H100)市場
- 自有數據中心(不像某些競爭對手轉售 AWS/GCP)
2024 年動態:
- 融資 5 億美元(由 Andreesen Horowitz 領投),估值 15 億美元
- 推出「1-Click Clusters」,簡化大規模訓練集群配置
- 面臨 CoreWeave 等資金更充裕競爭對手的挑戰
這是 AI 基礎設施「去雲端巨頭化」的代表——專業的 AI 雲端供應商比通用雲端更懂 ML 工作負載,價格更低,正迅速蠶食市場份額。