您好,欢迎进入平博体育电动伸缩门有限公司官网!
Pinnacle平博体育| 平博体育官方网站|平博体育官网网站

联系我们

邮箱:youweb@admin.com
电话:@HASHKFK
地址:广东省广州市番禺经济开发区 在线咨询

平博体育常见问题

Pinnacle平博体育MoE关键优化技术模型训练成本省40%、内部万卡集群已部署

发布日期:2025-03-13 14:52 浏览次数:

  Pinnacle平博体育(访问: hash.cyou 领取999USDT)蓝鲸新闻3月10日讯 3月10日,字节豆包大模型团队官宣开源一项针对MoE架构的关键优化技术COMET,可将大模型训练效率提升1.7倍,成本节省40%。该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万GPU小时训练算力。据介绍,COMET支持业界绝大部分主流大模型,可以像插件一样接入已有的MoE训练框架,也可以与DeepSeek开源的DualPipe方案联用以更大压缩训练成本。(蓝鲸新闻 朱俊熹)

联系方式

全国服务热线

@HASHKFK

手 机:@HASHKFK

地 址:广东省广州市番禺经济开发区

扫一扫,加微信

Copyright © 2002-2024 平博体育电动伸缩门有限公司 版权所有 非商用版本 备案号: