騰訊混元翻譯模型開源 在全球機器翻譯比賽拿下30個語種第1名
9月2日,據報道,騰訊混元宣布將旗下剛剛獲得國際翻譯比賽冠軍的模型開源,供開發者免費下載部署。這一模型命名為Hunyuan-MT-7B,總參數量僅7B,支持33個語種、5種民漢語言/方言互譯,是一個能力全面的輕量級翻譯模型。
同時開源的還有一個翻譯集成模型 Hunyuan-MT-Chimera-7B (奇美拉),是業界首個翻譯集成模型,它能夠根據原文和多個翻譯模型給出的不同內容,再生成一個更優的翻譯結果,不僅原生支持Hunyuan-MT-7B,也支持接入 Deepseek 等模型,對于一些有專業翻譯需求的用戶和場景,可以提供更加準確的回復。
在8月底結束的國際計算語言學協會(ACL)WMT2025比賽中,騰訊混元Hunyuan-MT-7B(Shy-hunyuan-MT)拿下了全部 31個語種比賽中的30個第1名,處于絕對領先地位,這 31個語種除了中文、英語、日語等常見語種,也包含捷克語、馬拉地語、愛沙尼亞語、冰島語等小語種。
WMT25競賽對參賽模型的參數規模有明確限制,要求系統滿足開源要求,并且只能使用公開數據進行訓練,在這樣的環境下,Hunyuan-MT-7B擊敗了眾多參數更大的模型。
在業界常用的翻譯能力測評數據集 Flores200上,騰訊混元Hunyuan-MT-7B模型也有卓越的效果表現,明顯領先于同尺寸模型,與超大尺寸模型效果對比也不遜色。
取得全面領先的成績,離不開技術上的全面突破,針對翻譯場景,騰訊混元提出了一個完整的翻譯模型訓練范式,覆蓋從預訓練、到CPT再到監督調參、翻譯強化和集成強化全鏈條,使得模型的翻譯效果達到業界最優。
Hunyuan-MT-7B的特點在于僅用少量的參數,就達到甚至超過了更大規模模型的效果,這也為模型的應用帶來了眾多優勢。
首先是計算效率,7B模型的推理速度明顯快于大型模型,在相同硬件條件下能夠處理更多的翻譯請求,并且,基于騰訊自研的AngelSlim大模型壓縮工具對Hunyuan-MT-7B進行FP8量化壓縮,推理性能進一步提升30%。其次是部署友好性,Hunyuan-MT-7B能夠在更多樣化的硬件環境中部署,從高端服務器到邊緣設備都能良好運行,并且模型的部署成本、運行成本和維護成本都相對更低,在保證翻譯質量的前提下,為企業和開發者提供了更具吸引力的解決方案。
相比傳統的機器翻譯,基于大模型的翻譯對于對話背景、上下文內容以及綜合的翻譯需求有更深度的了解,進而能夠提供更加準確和“信達雅”的翻譯,這也為翻譯模型的落地應用打下了基礎。目前,騰訊混元翻譯模型已經接入騰訊多個業務,包括騰訊會議、企業微信、QQ瀏覽器、翻譯君翻譯、騰訊海外客服翻譯等,助力產品體驗提升。
自2023年亮相以來,騰訊混元積極擁抱開源,通過開放自研技術,推動大模型技術的共享和突破,在推出翻譯模型之前,已經陸續開源了業界領先的文生文、文生圖、視頻生成和3D生成能力和相關工具集插件,提供商業模型性能的模型服務,相關模型多次登頂開源社區熱度榜榜首。未來,騰訊混元還將開放更多模型和技術,和社區攜手,共建開放大模型生態。