返回趨勢情報
趨勢情報

Anthropic 為兩條 AI 紅線和五角大廈翻臉,說明軍用採購已不再接受模型公司自己畫邊界

Anthropic's Clash With the Pentagon Over Two AI Red Lines Shows Defense Procurement No Longer Accepts Vendor-Defined Boundaries

2026年3月1日
易賺Ai團隊
9 分鐘閱讀
#AI新聞#趨勢#分析#Anthropic#Claude#軍事AI#LLM
Anthropic 為兩條 AI 紅線和五角大廈翻臉,說明軍用採購已不再接受模型公司自己畫邊界

Anthropic 為兩條 AI 紅線和五角大廈翻臉,說明軍用採購已不再接受模型公司自己畫邊界

如果一家前沿模型公司會因為堅持兩條使用邊界,就被美國國防體系公開威脅貼上供應鏈風險標籤,這已經不是普通的合約談判,而是 2026 年最值得注意的軍用 AI 衝突之一。Anthropic 與五角大廈這場對撞,表面上是在吵「可不可以保留例外條款」,本質上卻是在回答一個更硬的問題:當大型模型真的進入情報分析、作戰規劃、模擬推演與網路行動流程後,最後到底誰有權決定它能不能被拿去做某些事。

把 Anthropic 2 月 26 日與 2 月 27 日兩份官方聲明、路透對白宮與國防部動作的追蹤、國防部長 Pete Hegseth 在 X 上要求「所有合法用途都必須完全開放」的公開貼文、以及 Anthropic 先前對政府與機密網路部署的資料放在一起看,會發現這條新聞真正敏感的地方,根本不在模型跑分。這次爭議沒有公布新的每 1M tokens 定價,也沒有新增 context window 或 benchmark 參數;以目前最後一版公開資料來看,Claude Sonnet 4.6 的 API 價格仍是每 1M input tokens 3 美元、output tokens 15 美元,並提供 1M token context beta,OSWorld 電腦操作評測則已拉到 72.5%。也就是說,衝突爆發時,市場面對的不是「模型還不夠成熟」,而是「模型一旦夠成熟到能進入高風險系統,供應商還能不能保留自己的底線」。

Anthropic 想守住的兩條線其實很明確:大規模國內監控,以及 fully autonomous weapons。公司立場不是全面拒絕國安合作,反而一再強調自己早就把 Claude 部署進美國政府的機密網路、國家實驗室與國防體系,也支持大量國安用途;它拒絕的,是把今天還不夠可靠的前沿模型直接放進全自主武器,或拿去大規模拼接美國民眾的個資與行為訊號。從 Anthropic 的角度,這是最低限度的治理紅線;從國防部角度,這卻像是在讓供應商保留對軍事用途的最終否決權。雙方在這個點上撞上,幾乎是必然的。

這件事之所以在 3 月 1 日前後特別重要,是因為五角大廈對模型供應商的期待已經明顯變了。以前 AI 公司可以把政府合作當成試點、沙盒或研究專案,現在不一樣了。只要模型真的被放進 operational planning、intelligence analysis 和 cyber operations,採購方就會把它看成基礎能力,而不是帶條件的實驗工具。這和 五角大廈 AI 戰略再推進,軍用 AI 正從實驗階段走向操作原則 其實是同一條主線。制度一旦開始把 AI 寫進作業流程,買方最不能接受的,就是供應商事後再說「這些場景我們不給用」。

更麻煩的是,這場爭議不只牽涉倫理,也直接牽涉競爭。路透在 2 月 27 日的報導裡同時提到,五角大廈在對 Anthropic 施壓的同一天,也和 OpenAI 達成新的合作安排,而 Sam Altman 還公開表示,國防部關於 human responsibility 與不做大規模美國國內監控的原則,已經被寫進雙方協議。這裡最值得注意的不是誰說得比較漂亮,而是如果其他模型供應商能把「國安可接受」與「技術護欄仍存在」包成合約語言,Anthropic 的強硬姿態就會立刻從價值主張變成商務壓力。軍政客戶不會為了供應商的道德敘事停下部署節奏,他們只會把訂單移往更容易簽的那一家。

當然,Anthropic 也不是單純站在道德高地。Reuters 直接點出,供應鏈風險標籤如果成真,可能讓 Anthropic 在政府與商業兩端都承受極大損害;政府合約、承包商關係、甚至 private-sector relationship 都可能被牽動。換句話說,這不是一家願意輕鬆放棄收入的公司突然理想爆棚,而是它判斷有些線一旦退了,之後就再也收不回來。國防部長在 X 上把這件事定義成「Big Tech 綁架 warfighters」,語氣刻意升高,也說明雙方已經不是閉門協商,而是在爭奪公眾敘事權。當安全條款開始靠社群平台公開放話施壓,市場就更該警覺,因為這通常表示制度層的妥協空間已經變小了。

這場對撞也會讓高敏感產業的採購方更難再用模糊語言帶過。對政府機關、國防供應鏈、金融、電信與大型製造業來說,真正要問的不再只是「哪家 LLM 最強」,而是如果未來模型被放進高風險流程,供應商會不會因政策、輿論、地緣衝突或自家安全原則突然改寫服務邊界。也就是說,合約條款、離線備援、多模型切換能力、資料可攜性與供應商替代路徑,會變得和模型本身一樣重要。這種壓力,和 全球 AI 安全共識開始鬆動,治理分歧正在變成下一輪競爭 講的是同一件事:治理不再只是價值觀問題,而是部署成本與市場準入問題。

對開發者與實際導入團隊來說,訊號也很直接。未來只要專案涉及代理、自動化決策、跨系統操作或大規模資料彙整,大家就不能再把模型供應商當成永遠穩定的基底。Claude 近期在 computer use、長上下文與對 提示詞注入 的防護上都在快速前進,代表它確實更接近能碰真實工作系統的階段;但也正因如此,供應商與採購方對使用邊界的衝突只會更多,不會更少。模型越接近真實權限,條款戰就越不會是附屬議題。

所以這條新聞最值得觀察的下一步,不是誰在公開聲明裡罵贏,而是三件更硬的事。第一,五角大廈會不會把「任何合法用途」變成日後採購的標準模板。第二,其他前沿模型公司會不會願意接受同樣條款,還是只是在語言上包裝得比較柔軟。第三,企業與政府客戶會不會因此加快 multi-model 與可替代架構,避免把核心流程綁死在單一供應商的治理立場上。只要答案朝這三個方向走,Anthropic 這次衝突就不只是一次政治風波,而會成為軍用 AI 採購正式進入「供應商不得自留最後否決權」階段的分水嶺。