返回趨勢情報
趨勢情報

Cerebras 申請 IPO,把超高速推論故事直接送進公開市場

2026年4月19日
易賺Ai團隊
12 分鐘閱讀
#AI#Cerebras#晶片#IPO#Inference
Cerebras 申請 IPO,把超高速推論故事直接送進公開市場

Cerebras 重新遞交 S-1,不只是又一家 AI 晶片公司想上市,而是第一批試圖把「超高速推論」單獨包裝成公開市場敘事的公司正式進場。這件事重要,因為近一年 AI 基礎設施的主戰場已經不只是誰能訓練更大的模型,而是誰能把長輸出、coding agent、即時互動這些高 token 工作負載真的跑快、跑穩、跑到夠大規模。當 Cerebras 把 OpenAI、AWS 與自家 wafer-scale 系統一起寫進招股文件,市場實際上被問到的是另一個更根本的問題:除了 GPU 之外,會不會出現一個以延遲和吞吐量為核心賣點的新基建類別。

指標這次已揭露內容
上市文件4 月 17 日重新提交 S-1,擬以 CBRS 在 Nasdaq 掛牌
2025 營收5.1 億美元
2025 淨利2.378 億美元
非 GAAP 淨損7,570 萬美元
OpenAI 合作多年期 750MW 低延遲推論容量,分階段到 2028 上線
AWS 合作Trainium 做 prefill、CS-3 做 decode,官方稱高速度 token 容量可提升 5 倍

先看最硬的訊號。招股書顯示 Cerebras 2025 年營收達 5.1 億美元,帳面淨利 2.378 億美元,但若排除一次性項目則仍是 7,570 萬美元非 GAAP 淨損。這組數字的意義不在於它已經變成毫無爭議的成熟公司,而在於它終於有資格把「超高速推論」說成可被驗證的商業線,而不是只停留在 demo。對比不少 AI 基建新創還在講遠期 pipeline,Cerebras 現在能拿出的,是已經被寫進正式文件的收入、合作與部署節奏。

另一個不能忽略的點,是它這次回鍋上市的背景。Cerebras 早在 2024 年就提交過 IPO 文件,但之後因為與 G42 相關的聯邦審查而延後,最終撤回。現在重新遞件,代表公司判斷外部阻力至少已降到可以再度闖關。同時它並不是在資金吃緊時被迫上市。TechCrunch 引述資料指出,Cerebras 去年完成 11 億美元 Series G,今年 2 月又完成 10 億美元 Series H,估值來到 230 億美元量級。這種背景下仍要推 IPO,說明公司要的已不只是募資,而是把自己從「特規硬體黑馬」升格為可被大型客戶、政府與公開市場共同驗證的長期平台。

真正把故事撐起來的,還是它最近兩條最關鍵的合作。第一條是 OpenAI。OpenAI 官方在 1 月宣布會把 Cerebras 納入自己的運算組合,預計分批接入 750MW 的 ultra low-latency AI compute,到 2028 年陸續上線。OpenAI 給出的說法很直接:當使用者問更難的問題、跑更長的程式碼生成、讓代理反覆迭代,回應速度會直接改變使用強度與工作負載價值。這其實也呼應了我們之前談過的 NVIDIA 把「每 token 成本」搬上舞台CoreWeave 拿下 Anthropic 多年合約 這類趨勢:雲與模型公司現在搶的不是抽象算力,而是能不能交出某種特定型態的推論能力。

第二條是 AWS。Cerebras 3 月的官方說法比一般合作新聞更有技術味道,因為它不是只說「進 AWS」,而是明講要把推論拆成 prefill 和 decode 兩段來做。Trainium 專心處理前段的計算密集工作,Cerebras CS-3 負責後段的記憶體頻寬密集 decode。官方把這套叫做 disaggregated inference,並宣稱可在相同硬體占地裡提供 5 倍高速度 token 容量。這個設計重點在於,它承認今天的推論瓶頸不只在 FLOPS,而在不同階段其實需要不同硬體最佳化。若這條路走通,Cerebras 賣的就不只是「更快的晶片」,而是「把推論工作負載重新切層後的系統答案」。

這也是為什麼 Cerebras 一直強調自己在高速度輸出場景的優勢。官方對外宣稱其系統在某些模型上可達每秒 3,000 tokens,並把 coding agent、語音互動和長輸出任務視為最需要低延遲的主戰場。這套敘事乍看很像 marketing,但它其實踩中一個行業正在發生的位移:當智能體化 AI開始取代一次一答的聊天模式,工作負載就不再只是「回我一句話」,而是持續地讀上下文、生成更多 token、呼叫更多工具、等待更少延遲。從這個角度看,Cerebras 不是單純在挑戰 NVIDIA,而是在挑戰「所有推論都該被同一類硬體處理」的前提。

當然,公開市場不會只聽故事。它接下來一定會追問幾件事。第一,收入是否過度依賴少數大客戶與大型合約。第二,這種超高速推論需求究竟是可長期複製的市場,還是只適合少數高價值場景。第三,當大型雲商與既有晶片供應商都開始重寫推論架構時,Cerebras 能不能維持技術差異,而不是很快被平台層吸收。畢竟不管是 Jane Street 砸 60 億美元綁定 CoreWeave 還是 OpenAI 自己擴大供應組合,市場現在已經很清楚:AI 基建的勝負不只看效能,也看交付、融資、供應鏈與客戶集中風險。

但 Cerebras 這次申請 IPO 仍然有一個很明確的時代意義。它讓外界第一次比較完整地看到,一家以超高速大型語言模型推論為核心定位的公司,是否能把「速度本身」變成可上市的主產品。過去幾季,市場已經學會用資料中心、電力、機櫃和多年度雲合約去理解 AI 基建。現在 Cerebras 想再往前一步,讓投資人接受一件事:如果未來最值錢的 AI 體驗都需要更快的 token 輸出,那麼推論速度就不是附屬指標,而是一條足以獨立定價的基礎設施曲線。

再往下拆,Cerebras 這次上市其實也在替整個產業測試一種新的 AI 資本敘事。上一輪基建故事偏向「誰能拿到更多 GPU、更多資料中心、更多長約電力」,所以你會看到市場把 Thinking Machines Lab 與 NVIDIA 的 1GW 合作AI 算力荒開始把資料中心往太空推 這類消息,直接讀成產能與供給鏈能力的比拚。Cerebras 則想把故事再切細一層,告訴投資人未來不只有「有沒有算力」,而是「你的算力是不是剛好對應最值錢的推論任務」。如果公開市場真的接受這個前提,那麼後面一批 AI 晶片與系統公司就會更積極把自己往特定 workload 基礎設施去包裝,而不是籠統地跟所有 GPU 正面拚全面性。

這也讓 Cerebras 的上市後觀察點變得非常具體。首先,市場會不會開始用「低延遲推論容量」而不是傳統伺服器數量來衡量部分 AI 基建公司的上行空間。其次,客戶會不會願意為 coding agent、語音、互動式應用這類高即時性工作持續支付 premium,而不是在成本壓力下重新回到通用型硬體。最後,像 AWS 這種超大雲商如果真的把 prefill 與 decode 分拆成更常見的交付架構,Cerebras 是會因此成為標準答案,還是只是推動了整個產業往同方向重構、最後被更大平台吃掉。這三個問題,會比單一季營收更早決定 Cerebras 在上市後到底被視為「新類別開創者」,還是「被一波 AI 熱錢抬高的特殊硬體公司」。

還有一層是公開市場本身的治理問題。這次文件顯示 Cerebras 上市後將有 Class A、Class B、Class N 三種普通股結構,其中 B 股擁有更高投票權,意味著公司即使進入公開市場,也不會完全按傳統單一股權邏輯被治理。對一間還在高速重押技術路線、客戶組合與產能布局都可能快速變動的 AI 基建公司來說,這能讓管理層保留更強的戰略主導權;但對投資人來說,代價就是你買到的未必是傳統意義上能充分左右公司方向的股份。這種安排在 AI 產業未必會是例外,因為很多公司都想同時拿公開市場的資本,卻不想讓長週期基建決策被短期股價綁住。Cerebras 若上市成功,也可能替後續一批 AI 硬體與系統公司示範一條路:募更大的錢、講更長的故事,但盡量不把控制權一起交出去。

所以這次 IPO 最終要被驗證的,不只是 Cerebras 的晶片或系統到底快多少,而是整個市場會不會接受這種新的 AI 基建公司長相。它既不像傳統半導體公司那樣只賣元件,也不像純雲服務商那樣只賣租用容量,而是站在晶片、系統、平台合作與推論服務敘事的交界處。若投資人買單,後面會有更多公司學著把自己包裝成「某類 AI 工作負載的最佳基座」;若不買單,行業也可能重新回到少數超大平台主導、其他玩家更難獨立敘事的格局。

如果這次上市順利,Cerebras 將不只是為自己打開新的資本通道,也可能替整個市場建立一個新的比較框架:下一輪 AI 晶片公司,不該只被問參數、製程和峰值算力,還要被問它到底能幫誰把真實工作流跑得更快。這個問題,會比任何一張發布會 benchmark 都更難,也更接近公開市場真正願意付錢的地方。