欧美三级不卡/成人97视频/四虎成人精品永久免费av九九 /国产一区二区精品91 - 成人三级在线播放

騰訊混元翻譯模型開源 在全球機器翻譯比賽拿下30個語種第1名

2025-09-02 16:34:08   |   文白不白   |   1189

9月2日,據報道,騰訊混元宣布將旗下剛剛獲得國際翻譯比賽冠軍的模型開源,供開發者免費下載部署。這一模型命名為Hunyuan-MT-7B,總參數量僅7B,支持33個語種、5種民漢語言/方言互譯,是一個能力全面的輕量級翻譯模型。

同時開源的還有一個翻譯集成模型 Hunyuan-MT-Chimera-7B (奇美拉),是業界首個翻譯集成模型,它能夠根據原文和多個翻譯模型給出的不同內容,再生成一個更優的翻譯結果,不僅原生支持Hunyuan-MT-7B,也支持接入 Deepseek 等模型,對于一些有專業翻譯需求的用戶和場景,可以提供更加準確的回復。

在8月底結束的國際計算語言學協會(ACL)WMT2025比賽中,騰訊混元Hunyuan-MT-7B(Shy-hunyuan-MT)拿下了全部 31個語種比賽中的30個第1名,處于絕對領先地位,這 31個語種除了中文、英語、日語等常見語種,也包含捷克語、馬拉地語、愛沙尼亞語、冰島語等小語種。

WMT25競賽對參賽模型的參數規模有明確限制,要求系統滿足開源要求,并且只能使用公開數據進行訓練,在這樣的環境下,Hunyuan-MT-7B擊敗了眾多參數更大的模型。

在業界常用的翻譯能力測評數據集 Flores200上,騰訊混元Hunyuan-MT-7B模型也有卓越的效果表現,明顯領先于同尺寸模型,與超大尺寸模型效果對比也不遜色。

取得全面領先的成績,離不開技術上的全面突破,針對翻譯場景,騰訊混元提出了一個完整的翻譯模型訓練范式,覆蓋從預訓練、到CPT再到監督調參、翻譯強化和集成強化全鏈條,使得模型的翻譯效果達到業界最優。

Hunyuan-MT-7B的特點在于僅用少量的參數,就達到甚至超過了更大規模模型的效果,這也為模型的應用帶來了眾多優勢。

首先是計算效率,7B模型的推理速度明顯快于大型模型,在相同硬件條件下能夠處理更多的翻譯請求,并且,基于騰訊自研的AngelSlim大模型壓縮工具對Hunyuan-MT-7B進行FP8量化壓縮,推理性能進一步提升30%。其次是部署友好性,Hunyuan-MT-7B能夠在更多樣化的硬件環境中部署,從高端服務器到邊緣設備都能良好運行,并且模型的部署成本、運行成本和維護成本都相對更低,在保證翻譯質量的前提下,為企業和開發者提供了更具吸引力的解決方案。

相比傳統的機器翻譯,基于大模型的翻譯對于對話背景、上下文內容以及綜合的翻譯需求有更深度的了解,進而能夠提供更加準確和“信達雅”的翻譯,這也為翻譯模型的落地應用打下了基礎。目前,騰訊混元翻譯模型已經接入騰訊多個業務,包括騰訊會議、企業微信、QQ瀏覽器、翻譯君翻譯、騰訊海外客服翻譯等,助力產品體驗提升。

自2023年亮相以來,騰訊混元積極擁抱開源,通過開放自研技術,推動大模型技術的共享和突破,在推出翻譯模型之前,已經陸續開源了業界領先的文生文、文生圖、視頻生成和3D生成能力和相關工具集插件,提供商業模型性能的模型服務,相關模型多次登頂開源社區熱度榜榜首。未來,騰訊混元還將開放更多模型和技術,和社區攜手,共建開放大模型生態。

特別提醒:本網信息來自于互聯網,目的在于傳遞更多信息,并不代表本網贊同其觀點。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字、圖片等內容的真實性、完整性、及時性本站不作任何保證或承諾,請自行核實相關內容。本站不承擔此類作品侵權行為的直接責任及連帶責任。如若本網有任何內容侵犯您的權益,請及時發送相關信息至bireading@163.com,本站將會在48小時內處理完畢。

騰訊混元翻譯模型開源 在全球機器翻譯比賽拿下30個語種第1名

2025-09-02 16:34:08 瀏覽量: 1189 作者: 文白不白

9月2日,據報道,騰訊混元宣布將旗下剛剛獲得國際翻譯比賽冠軍的模型開源,供開發者免費下載部署。這一模型命名為Hunyuan-MT-7B,總參數量僅7B,支持33個語種、5種民漢語言/方言互譯,是一個能力全面的輕量級翻譯模型。

同時開源的還有一個翻譯集成模型 Hunyuan-MT-Chimera-7B (奇美拉),是業界首個翻譯集成模型,它能夠根據原文和多個翻譯模型給出的不同內容,再生成一個更優的翻譯結果,不僅原生支持Hunyuan-MT-7B,也支持接入 Deepseek 等模型,對于一些有專業翻譯需求的用戶和場景,可以提供更加準確的回復。

在8月底結束的國際計算語言學協會(ACL)WMT2025比賽中,騰訊混元Hunyuan-MT-7B(Shy-hunyuan-MT)拿下了全部 31個語種比賽中的30個第1名,處于絕對領先地位,這 31個語種除了中文、英語、日語等常見語種,也包含捷克語、馬拉地語、愛沙尼亞語、冰島語等小語種。

WMT25競賽對參賽模型的參數規模有明確限制,要求系統滿足開源要求,并且只能使用公開數據進行訓練,在這樣的環境下,Hunyuan-MT-7B擊敗了眾多參數更大的模型。

在業界常用的翻譯能力測評數據集 Flores200上,騰訊混元Hunyuan-MT-7B模型也有卓越的效果表現,明顯領先于同尺寸模型,與超大尺寸模型效果對比也不遜色。

取得全面領先的成績,離不開技術上的全面突破,針對翻譯場景,騰訊混元提出了一個完整的翻譯模型訓練范式,覆蓋從預訓練、到CPT再到監督調參、翻譯強化和集成強化全鏈條,使得模型的翻譯效果達到業界最優。

Hunyuan-MT-7B的特點在于僅用少量的參數,就達到甚至超過了更大規模模型的效果,這也為模型的應用帶來了眾多優勢。

首先是計算效率,7B模型的推理速度明顯快于大型模型,在相同硬件條件下能夠處理更多的翻譯請求,并且,基于騰訊自研的AngelSlim大模型壓縮工具對Hunyuan-MT-7B進行FP8量化壓縮,推理性能進一步提升30%。其次是部署友好性,Hunyuan-MT-7B能夠在更多樣化的硬件環境中部署,從高端服務器到邊緣設備都能良好運行,并且模型的部署成本、運行成本和維護成本都相對更低,在保證翻譯質量的前提下,為企業和開發者提供了更具吸引力的解決方案。

相比傳統的機器翻譯,基于大模型的翻譯對于對話背景、上下文內容以及綜合的翻譯需求有更深度的了解,進而能夠提供更加準確和“信達雅”的翻譯,這也為翻譯模型的落地應用打下了基礎。目前,騰訊混元翻譯模型已經接入騰訊多個業務,包括騰訊會議、企業微信、QQ瀏覽器、翻譯君翻譯、騰訊海外客服翻譯等,助力產品體驗提升。

自2023年亮相以來,騰訊混元積極擁抱開源,通過開放自研技術,推動大模型技術的共享和突破,在推出翻譯模型之前,已經陸續開源了業界領先的文生文、文生圖、視頻生成和3D生成能力和相關工具集插件,提供商業模型性能的模型服務,相關模型多次登頂開源社區熱度榜榜首。未來,騰訊混元還將開放更多模型和技術,和社區攜手,共建開放大模型生態。

,

Copyright ©2018 鉍讀網 All Rights Reserved.

京ICP備18051707號

京公網安備 11011302001633號