華為宣布開源盤古 7B 稠密和 72B 混合專家模型
6月30日,華為今日正式宣布開源盤古 70 億參數的稠密模型、盤古 Pro MoE 720 億參數的混合專家模型和基于昇騰的模型推理技術。華為表示:“此舉是華為踐行昇騰生態戰略的又一關鍵舉措,推動大模型技術的研究與創新發展,加速推進人工智能在千行百業的應用與價值創造。”
目前,盤古 Pro MoE 72B 模型權重、基礎推理代碼,已正式上線開源平臺。基于昇騰的超大規模 MoE 模型推理代碼,已正式上線開源平臺。盤古 7B 相關模型權重與推理代碼將于近期上線開源平臺。