Google Maps 把 Gemini 帶進問路與導航,地圖產品正式從搜尋框走向對話入口
Google 在 3 月 12 日發表「How we’re reimagining Maps with Gemini」,一次把 Ask Maps 與 Immersive Navigation 推上檯面。表面上看,這像是地圖產品加了聊天問答和更漂亮的 3D 導航;但若把官方給出的細節拼起來看,Google 真正做的是把地圖從「輸入關鍵字再選結果」的舊模式,改成「直接描述情境,由系統生成可執行選項」的新入口。
Ask Maps 最關鍵的地方,在於它不是回答百科問題,而是直接處理真實世界的模糊需求。官方示例像是「手機快沒電,哪裡可以充電又不用排很久的咖啡店」或「今晚有燈的公共網球場在哪」。這些問題以前很難用關鍵字一次命中,因為它們牽涉情境、偏好、即時資訊與多條件權衡。現在 Google 直接把這類需求包成對話式地圖體驗,本質上就是把 AI 從搜尋輔助,往現實世界決策層推進。
Google 官方說 Ask Maps 會綜合超過 3 億個地點資料與 5 億名社群貢獻者的內容,並結合使用者在 Maps 裡的搜尋與收藏習慣來個人化答案。這代表它要賣的,不是單純「Gemini 會聊天」,而是 Google 有一層別家很難複製的地圖世界模型。聊天模型可以被追趕,但新鮮地點資料、評論密度、路線網路、停車入口與社群貢獻的累積,很難短時間補齊。
這背後其實是同一種策略。Google 並不是把 Gemini 做成獨立聊天機器人就算了,而是持續把它嵌進原本已經有流量、有場景、有資料優勢的產品裡。文件工作流是如此,Maps 這種現實世界路線與地點決策入口也是如此。這些入口一旦被對話化,Gemini 的價值就不再只是回答,而是把下一步行動也接過去。
Immersive Navigation 更值得從產品邏輯看,而不是只看畫面有多炫。Google 說這是十多年來最大幅度的導航升級,新的 3D 視覺不只呈現建築、地形與高架,也會標示車道、斑馬線、紅綠燈和停止標誌,並用更自然的語音指示讓你提早準備轉彎與併線。背後用的是 Gemini 對 Street View 與空照影像的理解。換句話說,這裡不是把圖資換 skin,而是讓模型幫地圖把「環境語意」做得更濃。
官方還提到幾個硬數字: Maps 每秒整合超過 500 萬筆全球交通更新,每天來自駕駛者的道路狀況回報超過 1,000 萬筆。這很重要,因為它說明 Immersive Navigation 的價值不只是模型懂圖,而是模型有辦法站在一個持續刷新、極高頻更新的交通資料層上工作。這種產品門檻,比單純把聊天介面套在地圖上高得多。
如果把這條線放回更大的競爭裡,Google 正在做的其實是把地圖、搜尋與行動建議融成同一個入口。當使用者不再分「我是在搜尋」「我是在看地圖」「我是在規劃路線」,產品的勝負就會落在誰能把問題理解、資訊整合與後續操作串得最順。
Ask Maps 現在先在美國與印度的 Android、iOS 推出,桌面版之後跟上;Immersive Navigation 則先在美國展開並逐步擴大到更多裝置、CarPlay、Android Auto 與內建 Google 的車款。這種 rollout 方式也很典型: 先把高頻入口拉成新體驗,再慢慢吃掉更廣的裝置場景。
所以這次更新不該只被理解成 Google Maps 多兩個新功能。更準確地說,Google 正在把地圖改寫成一個能聽懂需求、用世界模型回應、再把決定轉成行動的 AI 介面。對使用者來說,這是更少切換;對 Google 來說,這是把現實世界的入口權再鎖緊一層。
