返回趨勢情報
趨勢情報

NVIDIA 投 20 億美元綁住 Marvell,NVLink Fusion 把 AI 工廠競爭推向半客製互連層

NVIDIA's $2 Billion Marvell Bet Pushes AI Factory Competition Into the Semi-Custom Interconnect Layer

2026年3月31日
易賺Ai團隊
8 分鐘閱讀
#AI新聞#趨勢#NVIDIA#Marvell#NVLink#AI基建
NVIDIA 投 20 億美元綁住 Marvell,NVLink Fusion 把 AI 工廠競爭推向半客製互連層

NVIDIA 投 20 億美元綁住 Marvell,NVLink Fusion 把 AI 工廠競爭推向半客製互連層

當市場還在問誰還拿得到更多 NVIDIA GPU,NVIDIA 自己已經把 20 億美元投進 Marvell,答案其實往另一層去了。這次最值得看的,不是又一筆供應鏈投資,而是 NVIDIA 透過 NVLink Fusion 把 Marvell 拉進 AI factory 主幹,讓半客製 XPU、scale-up 網路、光互連與 AI-RAN 同時進入同一套官方敘事。對 AI 基建來說,這表示競爭焦點正在從「誰買到更多晶片」往「誰能把整櫃系統做得更貼 workload」明顯下沉。

Marvell 和 NVIDIA 共同發布的公告已經把合作輪廓講得很完整。Marvell 將透過 NVLink Fusion 提供 custom XPUs 與相容的 scale-up networking;NVIDIA 則提供 Vera CPU、ConnectX NIC、BlueField DPU、NVLink interconnect、Spectrum-X 交換器,以及整個 rack-scale AI compute。官方還特別強調,這套組合是 heterogeneous AI infrastructure,而且 fully compatible with NVIDIA systems。換句話說,NVIDIA 想做的不是把別人的晶片趕出場,而是讓更多半客製運算節點可以接進自己的骨幹。

如果把這條消息和 NVIDIA 砸 40 億美元卡位光通訊,說明 AI 基建瓶頸正從 GPU 轉向光互連 以及 Jensen Huang 發表 AI Is a 5-Layer Cake,NVIDIA 用五層架構定義 AI 基礎設施 放在一起看,主線其實非常一致。NVIDIA 不是只想做最強加速卡,它正在把自己往 AI 工廠的總裝層、互連層和生態分配層推。這次 Marvell 進場,就是這條路線的最新證據。

很多人看到 NVLink Fusion,第一反應會以為這只是 NVIDIA 把互連技術對外授權。但從這次公告內容來看,它更像一套讓外部半客製運算節點接進 NVIDIA 主幹的接口標準。對正在開發 custom XPU 的客戶來說,NVLink Fusion 的價值不只是頻寬,而是可以在保留自家晶片差異化的同時,仍然接上 NVIDIA 已經建立起來的 CPU、NIC、DPU、交換器與整櫃運算堆疊。

角色這次官方明講提供什麼背後的意義
MarvellCustom XPU、NVLink Fusion 相容的 scale-up networking把半客製運算與網路層帶進 NVIDIA 主幹
NVIDIAVera CPU、ConnectX、BlueField、NVLink、Spectrum-X、rack-scale compute讓外部節點仍在 NVIDIA 骨幹內運作
客戶可建構 heterogeneous、且相容 NVIDIA 系統的基礎設施擴大客製自由,但不必重造整套平台

這種結構很值得玩味。它表面上提高了選擇權,實際上卻同時把更多客戶鎖進 NVIDIA 的系統層。也就是說,NVIDIA 在做的不是單純開放,而是打造一種「更寬的上車道,但仍通往同一條高速公路」的生態策略。這會讓 hyperscaler 和大型雲商看到一條更務實的路:不必所有東西都自己重造,也不必完全放棄自家 silicon 方向,而是把差異化集中在最有價值的那一層。

為什麼是 Marvell,而不是普通的網通供應商

從 Marvell 這個月自己連續放出的技術內容來看,這家公司早就不是單純賣零件。3 月 17 日的官方 blog 直接把 scale-up fabrics 視為 AI 網路下一個高速成長區,強調自家 Structera S 260-lane PCIe 6.0 switch 可以把系統一路擴到 hundreds of XPUs,同時維持低延遲與低功耗。兩天後,Marvell 又推出 RELIANT,主打即時監測 AI fabrics 的互連健康,覆蓋 optics、DSP、PCIe retimers、NIC 與模組層的即時 telemetry。這說明 Marvell 的布局早就跨過單一元件,往整個 interconnect fabric 的可見度、可維運性和可擴展性走。

這也是 NVIDIA 為什麼會看上它。因為下一輪 AI 基建瓶頸已經不只在運算晶片,而在於大量 推論 與訓練工作怎麼在 scale-up、scale-out、甚至 scale-across 架構中維持高效率傳輸。Marvell 在這次合作裡被點名的強項,也正是 high-performance analog、optical DSP、silicon photonics 和 custom silicon。這四塊拼在一起,剛好就是 AI 工廠往更高密度、更低延遲、更低功耗演進時最容易卡住的層。

更別說合作內容還不只資料中心。公告同步把 Marvell 拉進 NVIDIA Aerial AI-RAN 的 5G/6G 路線,等於連電信網路也被視為未來 AI 基礎設施的一部分。這不是小延伸,而是在說 NVIDIA 想把 AI factory 的概念往資料中心外面再推一步,讓更多通訊與運算網路都變成可被 AI 負載重新編排的基礎設施。

這筆 20 億美元投資真正想解的,不是股權,而是時間差

如果只把這件事理解成財務投資,會低估它的分量。Jensen Huang 在公告裡把背景講得非常直接:the inference inflection has arrived,token generation demand 正在暴衝,全世界都在搶建 AI factories。當產業進到這個階段,真正稀缺的就不只是 GPU 產量,而是誰能更快把特定 workload 需要的互連、交換、光學與半客製運算節點一起拼起來。

所以,這 20 億美元比較像是在買時間差。NVIDIA 一方面用投資把 Marvell 綁得更深,另一方面又讓 Marvell 的 custom XPU 與 networking 能在 NVLink Fusion 之下被更大範圍採用。對客戶而言,這條路很有吸引力,因為它提供的不是純 NVIDIA 標準品,也不是完全自建的高風險路線,而是一條介於兩者之間的半客製中間層。對 NVIDIA 而言,這種安排則能把原本可能外流的客製化需求,重新吸回自己的系統生態裡。

這也是為什麼這條新聞不該只用「Marvell 漲了多少」來看。真正重要的是,NVIDIA 正在把 AI 基建的競爭單位,從單顆晶片改寫成整個 rack、整個 fabric、整個供應鏈協作框架。只要這條路走通,未來大家比的就不再只是誰有最多運算,而是誰能把運算、互連、光學與軟硬體整合,做成更貼近客戶 workload 的 specialized AI compute。

接下來最值得追的,至少有三件事。第一,還會有哪些公司加入 NVLink Fusion,讓這套接口從一條新聞變成真正的半客製生態。第二,Marvell 的 custom XPU 和 scale-up networking 會不會很快出現具體設計贏單,而不只是公告上的合作語言。第三,NVIDIA 所謂的「更開放」最後會開放到哪裡,因為它顯然不是要放棄控制,而是想用更寬的生態入口,把更多人帶進自己的 AI 工廠主幹。只要這三個問題開始有答案,這筆 20 億美元投資就會被看成 AI 基建競爭再往下沉一層的重要起點。