返回趨勢情報
趨勢情報

OpenAI 推出 GPT-5.4 mini 與 nano,小模型戰場開始從能力升級轉向代理成本分層

OpenAI Launches GPT-5.4 mini and nano as the Small-Model Race Shifts Toward Agent Cost Layering

2026年3月18日
易賺Ai團隊
9 分鐘閱讀
#AI新聞#OpenAI#GPT-5.4#AI Agent#Codex#LLM
OpenAI 推出 GPT-5.4 mini 與 nano,小模型戰場開始從能力升級轉向代理成本分層

OpenAI 推出 GPT-5.4 mini 與 nano,小模型戰場開始從能力升級轉向代理成本分層

OpenAI 新推出 GPT-5.4 mini 與 nano,這次更新表面上看像是常見的小模型升級,但官方真正想推進的主線其實很清楚: 小模型不再只是大模型的廉價替代品,而是要被明確放進代理系統的分工架構裡。官方公告把使用情境直接寫成 coding workflows、subagents、computer use 與高頻工作負載,開發者文件也同步補上 API 與功能支援差異,等於把市場訊號講白: 未來一套可商用的 AI 系統,很可能不是只靠一個最強模型硬跑到底,而是由大模型負責規劃、判斷與收尾,小模型負責搜尋、讀檔、整理、驗證與大量平行執行。

目前已確認的事實相當集中。GPT-5.4 mini 在官方說法中是目前最強的 mini 模型,主打 coding、工具使用、多模態理解與電腦操作;GPT-5.4 nano 則是更偏向分類、資料抽取、排序與較簡單的 coding subagent 任務。OpenAI 也沒有只在行銷文案上抽象描述它們更強,而是直接丟出具體 benchmark。以官方表格來看,GPT-5.4 mini 在 SWE-Bench Pro 拿到 54.4%,已經逼近 GPT-5.4 的 57.7%;在 OSWorld-Verified 則達到 72.1%,同樣貼近 GPT-5.4 的 75.0%。若只看這兩個最能反映真實代理工作流的指標,OpenAI 想傳達的訊息非常直接: 它希望市場相信,很多過去一定要交給旗艦模型的工作,現在已經可以用更輕、更快的版本完成。

mini 不只是便宜版,而是 OpenAI 指定的代理執行層

這次公告最值得注意的,不是 nano,而是 mini 被賦予了非常明確的產品角色。OpenAI 在官方文章裡直接以 Codex 為例,描述 GPT-5.4 這類大模型負責 planning、coordination 與 final judgment,再把搜尋 codebase、閱讀大檔案、處理輔助文件等較窄任務分派給 GPT-5.4 mini subagents。這種寫法其實和站內之前談過的 Codex agent loop 是同一條線,只是這次不再停留在 workflow 概念,而是把模型分工正式產品化。

GPT-5.4 mini 與 nano 的差異,已經不是單純快慢問題

項目GPT-5.4 miniGPT-5.4 nano
定位代理工作模型低成本背景工種
API 支援Responses API、Chat Completions、tool search、computer use、compactionResponses API、Chat Completions、compaction
核心任務搜尋、讀檔、工具操作、多步驟處理分類、抽取、排序、簡單 subagent 任務
價格壓力0.75 / 4.50 美元每 1M tokens0.20 / 1.25 美元每 1M tokens

從 API 層來看,這個分工也很具體。OpenAI 開發者 changelog 明寫 GPT-5.4 mini 已同步支援 Responses API 與 Chat Completions API,並支援 tool search、built-in computer use 與 compaction;nano 則只有 compaction,不支援 tool search 或 computer use。這代表兩者雖然都叫小模型,但定位並不對稱。mini 是能真正進入代理工具鏈、接住多步驟任務的工作模型;nano 更像低成本背景工種,適合把大量機械性工作拆出去跑。對開發團隊來說,這種差異很重要,因為它決定你能不能用同一個模型同時接資料、調工具、看畫面和做後續判斷,而不只是回一段便宜文字。

如果再把這條消息和 Responses API 補上 computer environment 放在一起看,輪廓會更完整。OpenAI 最近幾波更新其實都在把 agent runtime 拼起來: 一邊補工具、一邊補執行環境、一邊補安全欄杆,現在則把適合放進這套 runtime 的小模型角色講清楚。也因此,GPT-5.4 mini 的真正新聞價值,不在「迷你版也很強」,而在 OpenAI 幾乎已經明示未來代理系統的標準組裝方式。

效能更接近旗艦後,價格反而成了更大的新聞

但這次更新之所以值得寫,不只是因為效能追近,更因為價格策略變得更激進。OpenAI 官方價格頁顯示,GPT-5.4 mini 的 API 價格為每 1M input tokens 0.75 美元、每 1M output tokens 4.50 美元,cached input 為 0.075 美元;nano 則是每 1M input tokens 0.20 美元、每 1M output tokens 1.25 美元。The Decoder 依據新舊價格頁比對指出,這相較於上一代 GPT-5 mini 的 0.25 / 2.00 美元與 GPT-5 nano 的 0.05 / 0.40 美元,input 與 output 成本都出現明顯跳升,nano 的 input 價格甚至拉高到 4 倍。

這讓整件事的判斷不再是單純的「小模型變強了」,而是「OpenAI 認為市場已經願意為更能工作的 subagent 付更多錢」。官方當然有理由這樣定價。GPT-5.4 mini 被描述為比 GPT-5 mini 快逾兩倍,還能在多個 benchmark 上逼近 GPT-5.4,本身就更像準旗艦工作模型,而非傳統低階版本。問題在於,代理市場真正的大宗用量往往就來自大量小步驟與背景任務,這類任務對成本極度敏感。當 OpenAI 把 mini 和 nano 都往上調價,實際上是在賭企業比較在乎 end-to-end pass rate、工具穩定性與整體任務成功率,而不是每百萬 token 的單價是否還維持在上一代水位。

這個賭注未必錯,但也不會沒有壓力。因為越是代理型工作,越會把成本從單次問答拉成長鏈路累積。搜尋一次、讀檔一次、做一次工具呼叫、回寫一次結果,看起來都不大,可是一旦變成高頻 subagent 架構,成本模型就會跟傳統聊天產品完全不同。OpenAI 在 Codex 裡強調 GPT-5.4 mini 只消耗 GPT-5.4 配額的 30%,顯然就是在提前回應這個疑問: 它想把 mini 包裝成「便宜 enough 的工作模型」,而不是「最便宜的小模型」。

真正被改寫的,是開發者怎麼設計一套代理系統

因此,GPT-5.4 mini 和 nano 這條新聞最重要的地方,並不是又多了兩個 model slug,而是 OpenAI 對開發者說了一句更實際的話: 代理系統的最佳做法,可能就是把腦力最重的幾個節點留給大模型,把大量支持性工作交給更快的小模型去跑。這會直接影響產品設計、預算分配、API 佈局與監控邏輯。未來團隊比較的,不只是哪家模型 benchmark 高,而是哪一家最能把「高判斷」與「高吞吐」拆成合理成本結構。

接下來更值得追的,有三件事。第一,GPT-5.4 mini 的高價位會不會真的被企業接受,還是會把部分工作量推向更便宜的 open model 或競品。第二,nano 因為缺少 tool search 與 computer use,會不會被市場視為過度受限,只能停留在資料前處理層。第三,OpenAI 這種大模型規劃、小模型執行的官方範式,會不會反過來把整個代理產品市場的定價方式一起改掉。若這件事成真,小模型競爭接下來比的就不再只是便宜,而是誰最適合被放進一條真的能跑業務的代理流水線。

相關推薦

OpenAI 推出 GPT-5.4 mini 與 nano,小模型戰場開始從能力升級轉向代理成本分層 | 資訊 | 易賺Ai - 2026 全民被動收入指南