Google DeepMind 把 Deep Research 從一個「幫你多找幾個網頁再整理」的研究功能,往真正的研究代理方向推了一大截。這次推出的新版本不只把產品分成追求速度的 Deep Research 與追求完整度的 Deep Research Max,更重要的是首次把 Model Context Protocol、原生圖表與多來源資料接入能力一起放進 Gemini API。這代表長任務研究工作開始離開單純的網頁搜尋,轉向能接企業內部資料、專業數據流與多模態檔案的正式工作流。
如果只看名字,這像是一次常見的版本升級;但如果看 Google 實際公開的能力邊界,這其實是在把研究代理往更高單價的工作上推。官方直接點名的場景包括金融、生命科學、市場研究與其他容錯空間很小的專業領域,並提到正與 FactSet、S&P Global、PitchBook 等資料供應商合作設計 MCP server。這類訊號很明白:Google 想吃的不只是一般消費者的搜尋型助手,而是原本由分析師、顧問、產業研究與知識工作者掌控的高價值整理工作。
這次到底改了什麼
Google 把新能力拆成兩個模式。Deep Research 主打速度、效率與較低延遲,適合放在互動式介面中作為研究輔助;Deep Research Max 則主打 extended test-time compute,也就是願意花更多推理時間反覆搜尋、比對、修正與整合,換取更完整的最終報告。這是很重要的產品切分,因為它正式承認一件事:研究型代理不可能用同一種延遲與成本框架服務所有使用場景。
簡單說,如果使用者要的是對話中快速補資料,Deep Research 就夠了;如果要的是隔夜生成一份投資盡調、競品分析或產業研究,Google 希望企業把工作交給 Max。這樣的切分,和近來 ai 產品從「一個模型吃所有任務」逐漸轉向「依工作型態切服務層級」的方向一致。
下面這個對照最能看出這波升級的商業意圖:
| 模式 | Deep Research | Deep Research Max |
|---|---|---|
| 主要訴求 | 速度、效率、較低延遲 | 完整度、嚴謹度、較長 test-time compute |
| 典型場景 | 互動式研究輔助、前台助手 | 背景批次研究、盡調、長篇分析 |
| 研究來源 | 網頁、遠端 MCP、檔案與連接資料來源 | 同上,但更強調多輪搜尋、交叉比對與長鏈推理 |
| 輸出型態 | 完整文字報告 | 更完整報告,含原生圖表與資訊圖 |
| 供應方式 | Gemini API 付費層 public preview | Gemini API 付費層 public preview |
這張表看起來只是版本分層,但對企業採購很重要。因為它等於把研究工作正式分成「即時助手」和「非同步代理」兩條產品線。前者追求回應快,後者追求替代部分知識勞動。
MCP 才是這則新聞的真正主角
最值得注意的更新其實不是 Max 這個名字,而是官方把 MCP 支援寫得非常前面。Deep Research 現在可以搜尋網頁、remote MCP、檔案上傳、連接檔案儲存,或其中任意子集合;Google 還強調它支援 arbitrary tool definitions。翻成白話,意思就是這個研究代理不再只能去外網抓資料,而是開始具備接進企業專用資料宇宙的能力。
這一點的商業意義非常大。過去多數研究型 chatbot 的問題,不是摘要寫得不順,而是它只能碰公開網頁,碰不到真正有價值的內部資料、付費數據或專業訂閱內容。MCP 進來之後,研究代理就能開始處理金融資料流、內部文件庫、研究報告、知識庫或專業 API。這也是為什麼 Google 特別點名 FactSet、S&P Global 與 PitchBook 這類資料供應商。Google 想證明的是,Deep Research Max 不只是多做幾輪搜尋,而是能成為企業資料工作流的一部分。
對很多團隊來說,這個差異決定了工具是玩具還是生產力系統。只會找網頁,代表它更像一個比較會總結的搜尋助手;能接 MCP,就代表它有機會進入真正付費、真正高風險、也真正高價值的分析任務。
原生圖表與多模態輸入,代表 Google 想直接吃掉報告生成的最後一哩
Google 這次另一個值得看的更新,是 Deep Research 不再只輸出文字,而是能原生生成圖表與資訊圖。官方還提到它可以配合 HTML 或 Nano Banana,把複雜數據流直接轉成可展示的視覺輸出。這聽起來像附加功能,但其實非常關鍵,因為很多研究工作最花時間的地方,並不是「找不到資訊」,而是把資訊整理成團隊能看、主管能帶走、客戶能簡報的格式。
Google 也同步把輸入邊界做大。現在可用於 grounding 的素材包括 PDF、CSV、圖片、音訊與影片。這代表它鎖定的不是單純文字研究,而是混合型資料任務,例如先讀法說會逐字稿,再比對財務表,再整理成圖,再補充外部市場資料。對一般使用者來說,這是更好用的研究助手;對企業來說,這則是把原本分散在分析、簡報與資料整理之間的工序往同一代理壓縮。
這也是為什麼這波升級值得從工作流角度看,而不是只看模型能力。Google 想賣的不是一個更會寫摘要的 大型語言模型,而是一個能把資料蒐集、交叉驗證、整理與呈現接成單一流程的研究代理。
不過 Google 也刻意沒把幾件事講得太滿
儘管官方反覆強調 Deep Research Max 在 retrieval 與 reasoning benchmark 上有明顯提升,這次公開材料並沒有把所有最醒目的 benchmark headline numbers 直接文字化列出,而是主要以圖表展示。第三方媒體也立即指出,Google 對於這些分數背後的測試透明度與比較口徑,說明仍然不算完整。這點很重要,因為研究代理若要進入高價值場景,企業最在意的不是宣稱更強,而是什麼情況下會失敗、會漏掉什麼、對衝突來源如何取捨。
價格也是另一個被刻意留白的部分。Google 只說 Deep Research 與 Deep Research Max 即日起透過 Gemini API 的付費層 public preview 提供,並將很快提供給 Google Cloud 的新創與企業客戶,但在這篇宣布文裡沒有直接列出單次研究、每百萬 token、圖表生成或多工具組合的完整新價格表。對打算把它接入正式業務流程的團隊來說,這仍是採購前必須補齊的資訊。
換句話說,Google 現在已經把功能邊界拉大,但還沒有把商業邊界講透。這是典型的先搶心智、再談成本的產品節奏。
為什麼這比一般搜尋型 AI 更值得注意
Deep Research Max 真正有意思的地方,在於它把研究從「回答一個問題」變成「跑完一條工作鏈」。官方新增的 collaborative planning 讓使用者可先審查研究計畫,再讓代理開始執行;extended tooling 讓它能同時搭配 Google Search、remote MCP、URL Context、Code Execution 與 File Search;real-time streaming 又讓使用者能看到中間思路摘要。這說明 Google 對研究代理的想像,已不再是黑箱一次吐出答案,而是逐步接近一個可介入、可約束、可組裝的工作系統。
這一點很重要,因為研究任務不像簡單問答那麼能容忍錯誤。尤其在金融、法務、產業分析或生命科學領域,最怕的不是答得慢,而是答得看起來很完整卻遺漏關鍵資料。因此 Google 這次把 diverse sources、conflicting evidence 與 richer visuals 都放進敘事裡,本質上是在回應這類高價值任務對可信度與可審核性的要求。
如果這套能力能穩定落地,它會對知識工作市場產生很直接的壓力。很多原本由 junior analyst、研究助理、顧問團隊花數小時甚至數天整理的前置工作,將更容易先被代理完成第一版。人的角色不會立即消失,但會更快轉向審核、判斷與最後決策,而不是蒐集與拼裝資料。
接下來真正要驗證的是,研究代理能不能撐過高風險場景的現實考驗
Google 已經把 Deep Research Max 從功能展示推向更像正式產品的位置,但下一步仍取決於三個現實驗證。第一,MCP 整合是否真的夠穩,能讓企業安全地接入專有資料而不把治理搞得更複雜。第二,這類長任務代理在高價值場景的錯誤成本是否足夠可控,尤其是面對互相矛盾的來源時,能不能維持可解釋與可審核。第三,Google 何時會把價格與商業模型講得更清楚,讓企業能真正比較它和其他研究型代理之間的總成本。
所以,這則消息最值得記住的不是 Google 又替 Gemini 多加了一個功能,而是研究代理的戰場已經往更高價值的知識工作移動。當 提示詞 不再只是讓模型回答得更像人,而是驅動一整條研究流程,市場比較的標準也會跟著改變。接下來大家比的,不會只是誰會找資料,而是誰能在企業真正關心的資料宇宙裡,把研究做得夠深、夠快、還能交付得出去。
