阿里開源 Qwen3.5-397B-A17B,把多模態、長上下文與 201 種語言一起推進公開模型
阿里巴巴發布並開源 Qwen3.5-397B-A17B,這次不是單純把參數做大,而是把公開模型最常被拿來比較的幾個關鍵條件一次拉高,包括多模態輸入、超長上下文、多語言覆蓋與多平台釋出。根據 Alizila 與 Hugging Face 公開資訊,這個版本同時也對外以 Qwen3.5-Plus 的託管服務形式提供。
Qwen3.5-397B-A17B 採用 mixture-of-experts 架構,總參數量為 397B,單次啟動 17B。官方將它定位為可原生處理文字、圖片與影片輸入,輸出端則維持文字生成。這代表它不是只為純文字聊天設計,而是瞄準更完整的 AI 工作流與跨媒體理解任務。若想看這個系列模型更接近本地部署的一面,也可以對照 本地 LLM 完整教學:用 LM Studio 跑 Qwen 3.5、Llama 與 GGUF 的實戰指南。
201 種語言與方言、262K 原生 context
Qwen3.5 這次另一個公開重點,是語言與上下文規格。官方表示模型支援 201 種語言與方言,原生 context window 為 262,144 tokens,並可延伸到約 1,010,000 tokens。這種配置讓它不只是面向一般對話,而是更接近長文件、跨語種知識整理與多來源輸入任務。
對公開模型市場來說,這是一個相當直接的訊號。因為過去很多 open model 雖然在單點 benchmark 表現不錯,但一碰到多語言、長文件或跨模態工作,落差就會被放大。Qwen3.5 這次把這幾個門檻一起搬進主規格表,讓外界更容易直接比較它與其他閉源或開源 LLM 的定位差異。
官方開放路徑相當完整
阿里巴巴沒有把模型只留在單一入口。官方資料顯示,Qwen3.5-397B-A17B 可透過 Hugging Face、GitHub、ModelScope、Qwen Chat 與 Model Studio 取得或使用。這讓它同時覆蓋研究者、開發者、雲端調用者與一般試用者,而不是只偏向某一種受眾。
這樣的釋出策略,也讓 Qwen3.5 比較像一個完整平台節點,而不只是一次模型開源。對照 IQuest-Coder 把開放式 coding model 推向接近封閉旗艦的新位置 可以看得更清楚: 公開模型競爭現在比的已經不只是「能不能開源」,而是能不能在能力、部署與入口上同時站穩。
模型定位已經不只是在中文市場
Qwen 系列一直被視為華語世界的重要公開模型,但這次公告的寫法很明顯不只面向中文使用者。201 種語言與方言、多模態輸入、百萬級上下文延伸,再加上多平台同步釋出,顯示這個版本被包裝成全球型 open model 產品,而不是區域型模型。
從目前公開資訊來看,Qwen3.5-397B-A17B 的新聞重點不是單一 benchmark 名次,而是阿里巴巴試圖把公開模型的能力邊界往上推一格,讓 open model 在多模態、長上下文與跨語言這幾條主戰線上不再只扮演便宜替代品。
