返回資訊
AI 趨勢入門

美國政府取得前沿模型預部署測試入口,Google DeepMind、Microsoft、xAI 同意交付國安評測

2026年5月5日
易賺Ai團隊
11 分鐘閱讀
#AI新聞#NIST#CAISI#模型治理#國家安全
美國政府取得前沿模型預部署測試入口,Google DeepMind、Microsoft、xAI 同意交付國安評測

5 月 5 日,美國國家標準與技術研究院 NIST 旗下的 Center for AI Standards and Innovation,簡稱 CAISI,宣布和 Google DeepMind、Microsoft、xAI 簽署新的合作協議。表面上看,這像是政府和模型公司又簽了幾份研究合作文件;但如果仔細看官方描述,這其實是一個相當重要的制度進展,因為它讓美國政府能在模型正式公開前,就對 frontier AI 做預部署評估、部署後持續評估,以及更聚焦於國安風險的研究。

公告裡有幾句話特別值得注意。第一,CAISI 明確指出,這些協議讓政府可以在模型尚未公開時先做 evaluation。第二,它說開發者常會提供降低或移除部分 safeguards 的模型版本,好讓政府更徹底評估國安相關能力與風險。第三,這些測試可以在 classified environments 進行。這三點加起來,意味著美國對前沿 AI 的治理,正在從原則宣示與自願承諾,往更接近實體壓力測試與制度化接口的方向移動。

這不是一般安全審查,而是戰略能力評估

過去幾年,模型安全的公共討論常停在紅隊測試、對齊框架、公開安全報告或公司自述的防護能力。CAISI 這次的安排則更偏向政府主導的能力量測。它不只想知道模型會不會胡說八道、會不會被 prompt 注入繞過,而是要更直接理解前沿模型在國家安全脈絡下到底能做什麼、不能做什麼、還缺哪些測量方法。

官方公告也提到,CAISI 迄今已完成超過 40 次這類評估,其中包含尚未對外發布的最先進模型。這個數字本身已經很重要,因為它代表預部署評估不是紙上規劃,而是實際存在、且已有一定規模的操作流程。現在和 Google DeepMind、Microsoft、xAI 的新協議,則進一步顯示這套機制正被正式擴充,而不是只停留在零星合作。

為什麼「未發布模型」這件事特別關鍵

一個模型若已經公開,再來評估它的風險,很多時候只能做事後補救。真正有政策價值的,是在它進入市場前就先理解它在生物、網攻、情報分析、自動化研究、工具鏈整合等高敏感領域的真實能力邊界。CAISI 現在拿到的,就是這種介於研發與發布之間的入口。

這會改變模型公司的發布節奏與治理責任。未來,前沿模型如果想被視為可以大規模釋出,不只要過內部安全門檻,還可能需要考量政府測試結果、回饋與建議。雖然這些協議目前仍屬合作與研究性質,不是法規審批,但它已經開始形成一種新的前置程序。企業若是做 frontier llm,就不能只想著產品發布與商業競爭,也要把與政府共享測試接口這件事納進開發流程。

去除部分 safeguards 的模型版本,透露出真正的治理難點

CAISI 提到,為了徹底評估國安相關能力與風險,開發者常會提供降低或移除 safeguards 的模型版本。這點極為關鍵,因為它承認了一個現實:很多公開版模型表現出的風險,不一定代表其底層能力上限。若政府只測帶著完整防護的公開版本,就可能看不到模型在更自由條件下能做到什麼。

這件事同時也讓治理問題變得更敏感。當政府需要測試去除部分限制的版本,表示真正的治理重點不只是公開給消費者的成品,而是底層能力本身。這會把討論從「產品是否安全」推向「能力是否需要在更高層級被持續監測」。對模型公司來說,這可能提高披露與合作成本;對政府來說,則提供更接近實戰的判斷依據。

Classified environments 意味著 AI 測試正進入國安體系內部

另一個不能忽略的細節,是協議支援在 classified environments 進行測試。這表示評估不只是學術型或民用安全型演練,而是可能包含更接近情報、國防與跨機關國安情境的分析。公告中也提到,來自整個政府體系的評估者可以透過 CAISI 召集的 TRAINS Taskforce 參與回饋。這說明 AI 模型評測已經不再只是單一實驗室或單一機關的工作,而是在往跨部門國安協同機制靠攏。

這個變化的含義很大。當模型測試走進分類環境,它就不只是科技政策問題,而開始帶有更明確的地緣競爭與國安資產特性。誰的模型先被量測、誰能提供什麼版本、哪些結果可以公開、哪些必須留在機密體系,這些都會影響未來的國際競爭敘事。

這則新聞也反映美國 AI 政策正在轉向「國家接口」

CAISI 在公告裡把自己定位為產業在美國政府內部的主要接觸窗口,負責協調測試、研究與最佳實務。這種定位很值得注意,因為它意味著政府不是想對每一間公司各自開散亂窗口,而是想建立統一接口。對企業來說,這可能降低合作的不確定性;對政策制定者來說,則方便累積一致的評估框架與能力資料。

這也是為什麼這次不是單純延續過往的 AI safety institute 模式,而是重新以 CAISI 名義推進,並特別提到協議已根據商務部長指示與 America’s AI Action Plan 重新協商。名稱、授權與政策語境都在更新,表示美國政府希望把 AI 評估從早期的安全倡議,調整成更貼近標準、競爭與國安實務的政策工具。

對產業的直接影響是什麼

對前沿模型公司來說,這表示未來與政府共享測試能力可能會變成接近常態化要求。對雲端與企業客戶來說,這也會成為一種訊號:哪些模型公司願意接受更深入、可能更嚴格的外部測量,可能會影響市場對其可信度的判斷。對其他國家而言,美國若先建立這種預部署評測接口,也可能帶動本國版本的類似機制。

更深一層看,這還會影響模型研發文化。當研究團隊知道某些版本會被送進國安導向的測試體系,就可能提早調整資料治理、能力檢查、發布節奏與內部記錄方式。模型治理不再只是產品上線前補一份報告,而會逐漸變成研發過程中的常態工作。

5 月 5 日這則消息真正代表什麼

CAISI 和 Google DeepMind、Microsoft、xAI 的協議,代表前沿 AI 治理已經從「公司自願做一些測試」走向「政府取得穩定的預部署測試入口」。這個入口目前還不是正式審批制度,但已經足以影響模型發布流程、政府與企業的信任判斷,以及未來可能出現的法規架構。

更重要的是,它把前沿模型的競爭從單純的能力競爭,拉進了可測量、可比較、可在國安體系中驗證的制度競爭。未來誰不只是模型最強,而是誰願意在更高強度的外部評估下仍被認為可用,可能會變得同樣重要。從這個角度看,這不是單一合作新聞,而是前沿 AI 正式進入壓力測試時代的標誌。