摩尔线程首个千卡智算中心落地,从算力到生态全面加速大模型发展
2023-12-19 来源:EEWORLD
12月19日,摩尔线程首个全国产千卡千亿模型训练平台——摩尔线程KUAE智算中心揭幕仪式在北京成功举办,宣告国内首个以国产全功能GPU为底座的大规模算力集群正式落地。与此同时,摩尔线程联合国内众多合作伙伴发起并成立了摩尔线程PES -KUAE智算联盟和摩尔线程PES-大模型生态联盟,共同夯实从智算基础设施到大模型训练与推理的国产大模型一体化生态,持续为我国大模型产业发展加速。

摩尔线程CEO张建中在主题演讲中带来重磅发布,包括大模型智算加速卡MTT S4000,以及专为千亿参数大模型训练和推理提供强大支持的摩尔线程KUAE平台,他表示:“摩尔线程KUAE智算中心的正式启用,是公司发展的重要里程碑。摩尔线程构建了从芯片到显卡到集群的智算产品线,依托全功能GPU的多元计算优势,旨在满足不断增长的大模型训练和推理需求,以绿色、安全的智能算力,大力推动AIGC、数字孪生、物理仿真、元宇宙等多模态应用的落地和千行百业的高质量发展。”
全新智算加速卡MTT S4000:训推兼顾,专为大模型打造
摩尔线程大模型智算加速卡MTT S4000,采用第三代MUSA内核,单卡支持48GB显存和768GB/s的显存带宽。基于摩尔线程自研MTLink1.0技术,MTT S4000可以支持多卡互联,助力千亿大模型的分布式计算加速。同时,MTT S4000提供先进的图形渲染能力、视频编解码能力和超高清8K HDR显示能力,助力AI计算、图形渲染、多媒体等综合应用场景的落地。尤为重要的是,借助摩尔线程自研MUSIFY开发工具,MTT S4000计算卡可以充分利用现有CUDA软件生态,实现CUDA代码零成本迁移到MUSA平台。

摩尔线程KUAE智算中心解决方案:软硬一体,开箱即用
摩尔线程KUAE智算中心解决方案以全功能GPU为底座,是软硬一体化的全栈解决方案,包括以KUAE计算集群为核心的基础设施、KUAE Platform集群管理平台以及KUAE ModelStudio模型服务,旨在以一体化交付的方式解决大规模GPU算力的建设和运营管理问题。该方案可实现开箱即用,大大降低传统算力建设、应用开发和运维运营平台搭建的时间成本,实现快速投放市场开展商业化运营。

基础设施:包含KUAE计算集群、RDMA网络与分布式存储。此次发布的摩尔线程KUAE千卡模型训练平台,建设周期只需30天,支持千亿参数模型的预训练、微调和推理,可实现高达91%的千卡集群性能扩展系数。基于MTT S4000和双路8卡GPU服务器MCCX D800,摩尔线程KUAE集群支持从单机多卡到多机多卡,从单卡到千卡集群的无缝扩展,未来将推出更大规模的集群,以满足更大规模的大模型训练需求。
KUAE Platform集群管理平台:用于AI大模型训练、分布式图形渲染、流媒体处理和科学计算的软硬件一体化平台,深度集成全功能GPU计算、网络和存储,提供高可靠、高算力服务。通过该平台,用户可灵活管理多数据中心、多集群算力资源,集成多维度运维监控、告警和日志系统,帮助智算中心实现运维自动化。
KUAE ModelStudio模型服务:覆盖大模型预训练、微调和推理全流程,支持所有主流开源大模型。通过摩尔线程MUSIFY开发工具,可以轻松复用CUDA应用生态,内置的容器化解决方案,则可实现API一键部署。该平台意在提供大模型生命周期管理,通过简洁、易操作的交互界面,用户可按需组织工作流,大幅降低大模型的使用门槛。
摩尔线程KUAE千卡集群:多重优势,助力大模型高效训练
分布式并行计算是实现AI大模型训练的关键手段。摩尔线程KUAE支持包括DeepSpeed、Megatron-DeepSpeed、Colossal-AI、FlagScale在内的业界主流分布式框架,并融合了多种并行算法策略,包括数据并行、张量并行、流水线并行和ZeRO,且针对高效通信计算并行和Flash Attention做了额外优化。

目前,摩尔线程支持包括LLaMA、GLM、Aquila、Baichuan、GPT、Bloom、玉言等各类主流大模型的训练和微调。基于摩尔线程KUAE千卡集群,70B到130B参数的大模型训练,线性加速比均可达到91%,算力利用率基本保持不变。以2000亿训练数据量为例,智源研究院700亿参数Aquila2可在33天完成训练;1300亿参数规模的模型可在56天完成训练。此外,摩尔线程KUAE千卡集群支持长时间连续稳定运行,支持断点续训,异步Checkpoint少于2分钟。
摩尔线程KUAE千卡计算集群凭借高兼容性、高稳定性、高扩展性和高算力利用率等综合优势,将成为大模型训练坚实可靠的先进基础设施。
智算和大模型生态联盟:多方协作,促进生态融合
大模型时代,以GPU为代表的智能算力是基石,也是生成式AI世界的中心。摩尔线程联合中国移动北京公司、中国电信北京分公司、联想、世纪互联、光环新网、中联数据、数道智算、中发展智源、企商在线、北电数智北京数字经济算力中心、紫光恒越、瑞华产业控股(山东)、赛尔网络、中科金财、中耘智算、金舟远航(排名不分先后)等十余家企业,共同宣布“摩尔线程PES - KUAE智算联盟”成立。联盟将大力建设和推广从底层硬件到软件、工具到应用的全国产智算平台,旨在实现集群的高利用率,以好用、易用的全栈智算解决方案成为大模型训练首选。

活动现场,摩尔线程分别与中联数据和数道智算进行了现场签约,并共同为摩尔线程KUAE智算中心揭牌。现场200多名与会嘉宾一同见证了这一重要时刻。


人工智能应用的突破,生态是关键。为此,摩尔线程携手360、飞桨、京东言犀、智谱AI、超对称、无问芯穹、滴普科技、网易、清华大学、复旦大学、浙江大学、北京理工大学、凌云光、瑞莱智慧、南威软件(排名不分先后)等多家大模型生态伙伴,发起并成立“摩尔线程PES - 大模型生态联盟”。摩尔线程将以MUSA为中心的软硬一体化大模型解决方案,积极与广泛的生态伙伴开展兼容适配及技术调优等工作,共同推动国产大模型生态的全面繁荣。

在最后的圆桌对话环节,摩尔线程副总裁董龙飞与中能建绿色数字科技(中卫)有限公司董事长墙虎、智谱AI CEO张鹏、京东云首席AI科学家裴积全、中金资本董事总经理翟赢、超对称创始人吴恒魁、数道智算董事长甄鉴等重磅嘉宾,就当前大模型的算力需求和智算中心的建设与运营等话题展开了深入探讨。嘉宾一致认为,智算中心不应只是硬件的堆积,更是对软硬一体化的GPU智算系统整合能力的考验,GPU分布式计算系统的适配、算力集群的管理和高效推理引擎的应用等,都是提高算力中心可用性的重要因素。国产智算中心的发展,更是依托于将各方需求和优势充分融合,产业聚力才能实现整个生态的协同,推动国产事业往前发展。
- 消息称英伟达调整 Feynman GPU 设计:减少 A16 用量,应对台积电产能紧缺
- 英特尔确认新驱动着色器分发功能仅支持 Xe2 及更新架构的 GPU
- NVIDIA 携手全球工业软件巨头,将设计、工程与制造带入 AI 时代
- 突破 HBM 容量限制:铠侠宣布推出“超高 IOPS SSD”产品,让 GPU 直连闪存
- 面向下一代GPU VPD架构的供电系统超低压大电流测试方案
- Arm 执行副总裁:尚未向合作伙伴提供适用于 Windows 操作系统的 GPU
- 六角形半导体的天相芯HX77采用芯原Nano IP组合,打造超低能耗AR显示处理器
- 摩尔线程MTT S5000全面适配Qwen3.5三款新模型
- 物理AI仿真新突破:摩尔线程与五一视界共建全栈国产化生态
- 消息称英伟达 Feynman GPU 将导入英特尔代工先进制程与先进封装
- 嵌入式的风向变了:2026纽伦堡嵌入式展透露这些趋势
- 阿里达摩院发布玄铁C950,打破全球RISC-V CPU性能纪录
- 高通确认不在GDC 2026发布新款骁龙G系列掌机处理器SoC
- 行业评论 从工具到平台:如何化解跨架构时代的工程开发和管理难题
- Mujoco中添加Apriltag标签并实现相机识别教程
- 面向嵌入式部署的神经网络优化:模型压缩深度解析
- 摩尔线程MTT S5000全面适配Qwen3.5三款新模型
- 英飞凌与宝马集团携手合作,基于Neue Klasse架构塑造软件定义汽车的未来
- 物理AI仿真新突破:摩尔线程与五一视界共建全栈国产化生态
- 爆火的OpenClaw! 告别云端,米尔RK3576开发板本地部署
- 中国芯片研发重要成果!中科院发布香山、如意系统
- Miniconda环境隔离教程:解决Python版本冲突的完整指南
- Jetson GPU Burn烤机测试与PTX编程详解
- LabelImg安装使用教程:YOLOv12训练数据标注完整指南
- 根据题意,水位上升记为正,下降记为负。汛期水位上升3分米(即0.3米)记作+3分米,此时达到最高水位12.5米,因此基准水位(记作0时的水位)为: 12.5米 - 0.3米 = 12.2米。 汛期过后水位下降4分米(即0.4米),是从最高水位下降,故实际水位为: 12.5米 - 0.4米 = 12.1米。 实际水位相对于基准水位的变化量为: 12.1米 - 12.2米 = -0
- YOLOv12训练实战:train.py常用参数详解
- Altera 与 Arm 深化合作,共筑 AI 数据中心高效可编程新方案
- 莱迪思加入英伟达 Halos生态系统,通过Holoscan传感器桥接技术提升物理人工智能安全性
- 芯科科技闪耀2026嵌入式世界展 以Connected Intelligence赋能,构建边缘智能网联新生态




