阿里通義千問推出 Qwen2.5-Turbo 開源 AI 模型 支持 100 萬 tokens 長上下文
11 月 18 日,阿里通義千問發布博文,正式推出全新開源 AI 模型 Qwen2.5-Turbo。這款模型專為滿足社區對長上下文處理需求的呼聲而設計,具備支持 100 萬 tokens 長上下文的能力,并顯著提升了處理效率和成本效益。
Qwen2.5-Turbo 將上下文長度從之前的 12.8 萬 tokens 擴展至 100 萬 tokens,相當于約 100 萬英語單詞或 150 萬漢字。這一突破使得模型能夠輕松容納10 部完整小說,150 小時的演講稿,30000 行代碼。Qwen2.5-Turbo 在多項基準測試中表現出色。Passkey 檢索任務:1M-token 的檢索實現了 100% 準確率;RULER 長文本評估:得分 93.1,超越了 GPT-4 和 GLM4-9B-1M。
為了支持更長的上下文,阿里團隊引入了 稀疏注意力機制(sparse attention mechanisms),將處理 100 萬 tokens 至輸出第一個 tokens 的時間從 4.9 分鐘縮短至 68 秒,速度提升了 4.3 倍。這一改進顯著提升了模型在長文本處理中的響應效率。同時,Qwen2.5-Turbo 在經濟性上表現出色,每百萬 tokens 的處理成本僅為 0.3 元,能夠處理 3.6 倍于 GPT-4o-mini 的 token 數量,為開發者和企業提供了更加高效且經濟的解決方案。