资讯
每经记者:孔泽思 每经编辑:魏文艺|2025年6月3日 星期二|NO.1 华为推出参数规模7180亿全新模型据“深圳新闻网”6月2日消息,近日,华为在MoE(混合专家模型)训练领域再进一步,推出参数规模高达7180亿的全新模型——盘古Ultra ...
深圳新闻网2025年6月2日讯(深圳特区报记者 周雨萌)近日,华为在MoE模型训练领域再进一步,重磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾在超大规模MoE训练性能上的跨越。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果