很多朋友不知道【华为正式宣布:开源盘古7B稠密和72B混合专家模型】,今天小绿就为大家解答一下。
CNMO获悉,盘古ProMoE72B模型权重、基础推理代码和基于昇腾的超大规模MoE模型推理代码已正式上线开源平台。盘古7B相关模型权重与推理代码将于近期上线开源平台。 华为曾披露,盘古Pro MoE大模型,在参数量仅为720亿、激活160亿参数量的情况下,通过动态激活专家网络的创新设计,实现了以小打大的优异性能,甚至拥有不亚于千亿级模型的性能表现。在SuperCLUE最新公布的2025年5月排行榜上,位居千亿参数量以内大模型排行并列国内第一。
【CNMO科技消息】6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。华为表示,此举是华为践行昇腾生态战略的又一关键举措,将推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。 据CNMO了解,在近期的华为开发者大会上,华为云发布了盘古大模型5.5,对NLP(自然语言处理)、CV(计算机视觉)、多模态、预测、科学计算五大基础模型进行升级。同时,基于CloudMatrix 384超节点的新一代昇腾AI云服务全面上线。 此外,有华为技术专家称,盘古72B是兼顾性能与推理成本的黄金尺寸,最适合行业用户用AI改造业务。版权所有,未经许可不得转载
以上问题已经回答了。如果你想了解更多,请关新经网网站 (https://www.xinhuatone.com/)
华为正式宣布:开源盘古7B稠密和72B混合专家模型
2025-06-30 17:00:01 来源:新经网 作者:冯思韵
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。