返回趨勢情報
趨勢情報

AI 算力荒開始把資料中心往太空推,Kepler 與 Sophia 讓軌道推論從概念變成生意

2026年4月13日
易賺Ai團隊
9 分鐘閱讀
#AI#推理#基礎設施#GPU#太空運算
AI 算力荒開始把資料中心往太空推,Kepler 與 Sophia 讓軌道推論從概念變成生意

如果把這條消息孤立來看,Kepler 的新合作很像太空產業自己的小眾實驗:一家加拿大衛星公司把 40 顆 NVIDIA Jetson Orin 模組分散放上 10 顆衛星,另一家叫 Sophia 的新創準備把自己的軌道電腦作業系統送上去,在兩艘太空器上的 6 顆 圖形處理單元 上做第一次真正的在軌配置測試。

但把時間點拉回 2026 年 4 月,你就很難把它當成單一太空新聞。因為同一天,The Decoder 引述多方資料指出,AI 業界正碰上越來越明確的算力擁塞:Anthropic 的 API 近 90 天可用率只有 98.95%,OpenAI 的 token 用量在幾個月內從每分鐘 60 億暴增到 150 億,Blackwell 現貨租用價格兩個月內上漲 48%。當地面的 推理 需求、電力瓶頸與 GPU 成本一起擠壓時,連「把部分工作送去軌道上處理」這種以前看起來太科幻的方案,都開始有了現實商業語言。

先把最關鍵的幾個數字擺出來:

  • Kepler 官方已經把 40 顆 NVIDIA Jetson Orin 模組布在 10 顆衛星上,形成商業運行中的分散式在軌運算節點。
  • TechCrunch 指出,Kepler 現在已有 18 個客戶,最新一個就是 Sophia Space。
  • Sophia 這次不是單純掛名合作,而是要把自家軟體真正部署到 Kepler 衛星上,跨兩艘太空器調度 6 顆 GPU。
  • 更大的背景是,地面 AI 算力市場正在變貴、變擠,而且企業開始為高併發 AI代理 工作負載額外付費。

這不是把 hyperscaler 搬去太空,而是先把邊緣推理放到資料生成點旁邊

Kepler 自己對這件事的定義其實很精準。公司並不把自己包裝成「太空版資料中心」,而是把光學星間通訊、在軌運算與安全 payload hosting 組成同一層基礎設施。官方 3 月 16 日的說法很直接:這不是只有傳資料而已,而是讓 AI 驅動的地球觀測分析、多感測器融合、射頻情報、自治網路操作與資料優化,在資料還沒回地面前就能先處理一輪。

這個差別非常重要。傳統雲端的邏輯,是盡量把資料拉回大型資料中心再統一處理;Kepler 想賣的則是「資料在哪裡產生,就先在哪裡算一部分」。對衛星、雷達、國防感測、空中平台或高頻遙測場景來說,這不只是延遲問題,還是頻寬和下傳成本問題。當資料量大到你根本不可能每一筆都完整送回地面時,在軌先做篩選、壓縮、判讀和告警,商業上就會開始說得通。

TechCrunch 對 Sophia 的描述則補上另一層。Sophia 的創辦團隊賭的是,被送上太空的算力不需要一開始就長成超大型 AI 訓練中心,而是先從特定推理工作做起。它設計的 TILE 模組,把運算和散熱一起重新思考,希望用更薄、更適合被動散熱的形式,避開太空高功耗晶片最難處理的熱問題。這也是為什麼它現在先去找 Kepler,而不是自己一次砸出整座軌道機櫃:因為第一步不是證明「太空可以有資料中心」,而是證明軌道上的分散式計算能不能穩定被調度。

真正先上軌道的,不會是訓練,而是零碎但昂貴的推理工作

把這條新聞看深一點,最值得記住的其實不是衛星數,而是工作型態。TechCrunch 早在 2 月分析軌道 AI 經濟時就講得很清楚:大規模訓練需要數千顆 GPU 高度同步,地面資料中心依賴的是數百 Gbps 等級的高速互連;現在的雷射星間通訊雖然快,但和地面訓練叢集相比,仍不是同一級別。所以真正比較可能先成立的,不是把下一代 frontier 模型丟去太空訓練,而是把不需要極大規模同步、但非常吃延遲與頻寬的推理工作搬上去。

這也是為什麼 Kepler 和 Sophia 的組合值得看。它們都不是在講「比地面超大資料中心更便宜」,而是在講另一種價值:

  • 感測資料不用全數下傳再分析。
  • 某些任務可以在太空直接完成第一輪判斷。
  • 工作負載可以在衛星節點之間轉移,而不是死守單一設備。
  • 當地面電力、機房與合約都越來越難拿到時,軌道運算開始成為某些高價值場景的補充容量。

這和站內最近寫的 CoreWeave 拿下 Anthropic 多年合約,AI 雲端競爭開始比誰能真的交付算力 其實是同一個問題的兩個極端版本。前者是在地面上用合約、機櫃與交付能力搶 AI 需求;後者則是在問,當地面資源真的開始卡住時,還有哪些新地方能放進一部分可商用的算力。

但軌道 AI 目前仍是「被地面瓶頸逼得比較不像笑話」,還不是大規模答案

這件事不能被寫成太空神話。TechCrunch 在 2 月的經濟分析已經把帳算得很殘酷:如果要做 1 GW 等級的軌道資料中心,成本可能接近地面版本的 3 倍;現有入軌成本、衛星製造、散熱、輻射容錯和太陽能板壽命,全都比宣傳語聽起來更現實。即使 SpaceX 把火箭價格繼續壓下來,也不代表太空算力很快就會變成地面資料中心的直接替代品。

而且太空不是天然散熱器。沒有空氣代表熱量更難被帶走,只能靠輻射和大面積熱設計慢慢排。高性能晶片在軌道上還要面對 bit flip、材料老化和維修不可得的問題。換句話說,這條路真正吸引人的原因,不是它已經比地面成熟,而是地面世界的擁擠程度正在讓這些原本不合理的替代方案,開始獲得試算空間。

這裡又能接回 NVIDIA 把「每 token 成本」搬上舞台:Vera Rubin NVL72 以 AI 工廠思維重寫推論競爭。只要產業開始用 token 成本、交付能力與推理效率去重新算帳,算力問題就不再只是「哪個模型最強」,而會變成「哪種基礎設施最能承受高頻推理」。軌道運算現在扮演的,就是這場重算裡最極端但也最值得觀察的一個測點。

這條新聞真正的意思,是 AI 基建已經開始向外長出新邊界

Kepler 和 Sophia 暫時還不會把 hyperscaler 逼上絕路,也不會讓大模型訓練明天就搬去太空。但它們很清楚地說明了一件事:AI 算力緊張到某個程度後,產業會開始重新定義「資料中心」三個字。

過去我們以為資料中心一定是地上的建築、固定的電網、固定的冷卻和固定的合約;現在市場開始接受,某些最昂貴的工作也許可以在資料生成點旁邊先做、可以分散在節點上跑、甚至可以被送到地面之外。這不是因為太空突然變便宜,而是因為地面資源突然變得沒那麼理所當然。

所以這條消息最值得注意的地方,不是「太空很酷」,而是當 AI 需求繼續暴漲時,連基礎設施的地理邊界都開始鬆動了。