五角大廈評估讓 AI 模型以機密資料訓練,軍用 AI 正跨過最敏感的一道門檻
五角大廈正討論讓 AI 公司在安全環境中,用機密軍事資料訓練軍用版本模型。這條消息一出,真正需要被理解的,不只是軍方會更常用 AI,而是模型和機密情報之間的關係可能要從「可查詢」升級成「可內化」。一旦這個門檻被跨過,整個問題就不再只是誰能提供好用的 chatbot 或好用的分析助手,而是誰有能力在不讓機密資料外溢的前提下,把模型訓練、資料隔離、稽核責任與供應商接觸面一起管住。這比一般企業導入 LLM 難得多,也重得多。
根據 MIT Technology Review 率先披露的內容,目前生成式模型已能在機密環境中回答問題,但原則上還不能從它所見資料中直接學習。五角大廈現在評估的新方向,則是讓模型在經過認證的安全資料中心裡,與機密資料配對訓練軍方專用版本。相關做法包括由國防部保有資料所有權,供應商人員只在少數情況下、且具相應安全許可時才可能接觸資料;在真正碰到機密資料之前,軍方還計畫先用商業衛星影像等非機密資料測試模型表現。The Decoder 對這條消息的整理也確認,這會是目前已知第一次把大型語言模型供應商直接往「用機密資料學習」這條線推進,而不是只讓它們在封閉環境裡讀資料與回答問題。
從「能看」到「能學」,差別到底有多大
這裡最容易被低估的,是 read 與 train 的差距。模型能在隔離環境中讀取資料、回答問題,風險雖然已不低,但至少資料本身還比較像外掛上下文;只要權限和存取層設計得當,原始資訊理論上仍能維持在邊界內。可是一旦模型開始用機密資料訓練,情況就變了。那些監視報告、戰場評估、影像判讀模式與歷史脈絡,不再只是臨時提供給模型的內容,而可能進入模型權重、行為偏好或內部表徵裡。
MIT Technology Review 引述的專家說法就把風險點講得很直白: 如果同一個模型被多個不同機密等級、不同任務部門共用,那它有可能把某個單位本不該外流的敏感資訊,在後續互動中重新表現給另一個不該取得的人。這不是傳統資料庫權限問題那麼單純,因為模型一旦把資訊學進去,之後到底會以什麼形式顯現,很難做到像欄位權限一樣清楚切割。
| 階段 | 現在已較常見的做法 | 這次被討論的新做法 |
|---|---|---|
| 模型接觸資料方式 | 在隔離環境中讀取、回答、摘要 | 直接把機密資料用於訓練或再訓練 |
| 風險類型 | 權限外洩、查詢紀錄、回傳錯誤 | 模型內化敏感資訊、跨部門 resurfacing |
| 控制手段 | 存取權限、審計、封閉部署 | 還要再加訓練隔離、模型版本治理、供應商接觸治理 |
| 制度意義 | 工具導入 | 能力共同開發與深度綁定 |
這也是為什麼這條新聞不能被寫成「軍方要更聰明的 AI」。真正的重點是,軍方如果讓模型用機密資料學習,就等於把 AI 供應商從工具提供者往能力共建者的位置再推近一步。這對採購、合規、責任分配與地緣政治都會是大事。
為什麼五角大廈現在會想跨這一步
原因其實不難理解。先前公開資訊已顯示,美軍與國防體系已經在多個場景使用生成式 AI,包括文件草擬、情報輔助,以及更敏感的戰場判讀與目標分析。問題在於,如果模型只能讀資料卻不能真正吸收軍方特有的任務脈絡,它在很多高價值任務上就可能永遠只是助手,而不是更貼近作業邏輯的專用系統。
官方與外部報導都提到,真正需要機密資料訓練的任務,可能包括學會像分析員那樣從影像裡抓細微線索、把新訊息放回長期歷史脈絡中理解,或在大量多語言文本、音訊、影像、影片中提煉模式。這些事情不是一般公開網路資料能教會模型的。若軍方真的想把生成式 AI 從辦公支援推向更核心的決策與分析流程,遲早都會碰到「公開資料不夠」這堵牆。
再把這件事和近月幾條線拼起來看,輪廓會更清楚。五角大廈已在推動 AI-first warfighting force 路線,先前也已與 OpenAI、xAI 等供應商展開更深層合作,同時又對 Anthropic 類供應商的自設紅線表現出更高摩擦。這表示軍方現在的採購邏輯已經不是「找一個會聊天的模型」,而是「找一個願意進制度、進環境、進責任鏈,而且可以被持續塑形的能力層」。從這個角度看,機密資料訓練只是這條路線的下一步。
真正棘手的不是技術,而是治理
但也正因為如此,最難的問題未必是模型能不能學,而是學了之後誰負責。國防部若保有資料所有權,只能回答一半問題。另一半問題包括: 供應商是否能接觸權重或中間產物、哪些人能審查資料流向、不同任務部門要不要共用同一模型、模型一旦更新是否需要重新認證、模型輸出出錯造成的責任究竟落在軍方、供應商,還是部署與整合方身上。
還有一個更現實的結構性難題。今天如果只是把模型放進封閉環境回答問題,軍方仍保有一定供應商替換空間;但如果某家公司的模型開始在特定機密資料上做長期訓練、微調或專用版本維護,供應商鎖定程度就會急速上升。這時候採購的不再只是 API 存取權,而是整套資料、模型、權限與流程互相嵌住的系統。短期內這可能換來更高準確率,長期則可能讓可替換性、審核難度與政治風險同步上升。
The Decoder 在整理中還提到另一個關鍵事實: 五角大廈打算先拿非機密資料測試這條路是否有效。這透露出軍方自己也知道,技術可行不代表制度就準備好了。若非機密資料訓練後的收益沒有大到足以抵消治理成本,這條路最後未必會照最激進版本推進。反過來說,如果初步結果很好,那後面真正的爭議只會更大,因為那等於證明供應商值得被推得更深。
這條新聞最後會把市場帶去哪裡
對外部市場來說,這則消息至少會產生三個後果。第一,軍用與高安全產業接下來對模型供應商的要求,會明顯從一般功能比較,轉向隔離能力、審計能力與專用版本治理能力。第二,模型公司如果想拿下高敏感度訂單,就得更願意接受客戶定義的權限與限制,而不是只賣自家標準產品。第三,外界對軍用 AI 的疑慮會進一步從「它能不能回答」升級成「它究竟學進了什麼」。
這也是為什麼五角大廈評估讓模型以機密資料訓練,會是近期最值得盯的一條軍用 AI 新聞。它不像新模型發布那樣有漂亮 benchmark,也不像 consumer 產品更新那樣立刻能被一般人試玩,但它碰到的是更核心的邊界: 國家級敏感資料是否要被拿來塑形商業模型的能力。只要這條路一旦成立,軍用 AI 的競爭就會正式從工具採購,進入能力共建與制度深綁的新階段。到那時候,真正的問題就不再只是模型夠不夠強,而是誰有資格碰資料、誰有能力管風險,以及一個學過機密情報的模型,究竟還能不能被當成普通軟體產品看待。
