来源 :极客公园2024-02-01
摘要
千卡训练有效时间占比超过95%
近日,蚂蚁集团 AI 创新研发部门 NextEvo 全面开源 AI Infra 技术,可帮助大模型千卡训练有效时间占比超过 95%,能实现训练时「自动驾驶」,这推动了 AI 研发效率。
图:蚂蚁集团的自动化分布式深度学习系统 DLRover 现已全面开源
该技术框架名为 DLRover,目标在于大规模分布式训练的智能化。目前很多企业的训练作业都是跑在混合部署的集群中,运行环境复杂多变,不管多么「崎岖的地形」,DLRover 都可以「轻松行驶」。
2023 年大模型技术的发展,带来了工程实践的爆发,如何管理数据,提高训练和推理效率,最大化利用现有算力,成了关键一环。
完成一个千亿参数级别的大模型,如 GPT-3,用一张卡训练一次要耗时 32 年,那么训练时的算力利用尤为重要。方法之一是把能用的算力用得更好,比如进一步压榨已购买 GPU 的性能;二是把以前利用不了的算力用起来,比如 CPU、内存等,这就需要通过异构计算平台来解决。
最新集成进 DLRover 的是 Flash Checkpoint(FCP)方案。模型训练时,一般要打 Checkpoint(检查点),以便中断时能恢复到最近状态,目前常规的做法,存在着耗时长、高频打点易降低训练可用时间、低频打点恢复时丢失过多等缺点。新方案 FCP 应用在千卡千亿参数模型训练后,Checkpoint 导致的训练浪费时间降低约 5 倍,其中持久化时间降低约 70 倍,有效训练时间从 90%提升至 95%。
同时集成进去的,还有三项新的优化器(Optimizer)技术。优化器作为机器学习的核心组件,用于更新神经网络参数以最小化损失函数。其中,蚂蚁的 AGD(Auto-switchable optimizer with Gradient Difference of adjacent steps)优化器,在大模型预训练任务中,相比传统的 AdamW 技术加速 1.5 倍,AGD 已在蚂蚁内部多个场景使用并取得显著效果,相关论文已被 NeurIPS '23 收录。
在大模型预训练任务中,AGD 相比 AdamW 可以加速 1.5 倍
作为自动化分布式深度学习系统,DLRover 的「自动驾驶」功能模块还包括:Atorch,一种 PyTorch 分布式训练扩展库,在千亿参数模型千卡级别规模下,训练的算力利用率可达 60%,帮助开发者进一步压榨硬件算力。
DLRover 以「ML for System」的理念来提升分布式训练的智能度,旨在通过一个系统,让开发者完全摆脱资源配置的束缚,专注于模型训练本身。在没有任何资源配置输入的情况下,DLRover 仍然可以为每个训练作业提供最佳资源配置。
据了解,蚂蚁集团在人工智能领域持续进行技术投入,最近,蚂蚁集团在内部成立了 AI 创新研发部门 NextEvo,承担了蚂蚁 AI 的所有核心技术研发,包含百灵大模型的所有研发工作,涉及 AI 算法、AI 工程、NLP、AIGC 等核心技术,并在布局多模态大模型、数字人等领域的技术研发和产品创新。
同时,蚂蚁集团还加速开源节奏,填补了国内相关技术空白,推动人工智能行业快速发展。