通信库

DeepSeek“开源周”第二天开源EP通信库

新京报贝壳财经讯(记者罗亦丹)北京时间2月25日,DeepSeek发布了其“开源周”第二天的成果:DeepEP,第一个用于MoE模型(混合专家模型)训练和推理的开源EP通信库。据了解,EP为Expert Parallelism(专家并行),是一种在大规模分布式AI模型训练中使用的技术,能用于提升模型并行处理能力和训练效率。DeepSeek介绍,DeepEP的特点包括:高效且优化的全对全(all-t

DeepSeek开源第一个用于混合专家模型训练和推理的高效专家并行通信库

【DeepSeek开源第一个用于混合专家模型训练和推理的高效专家并行通信库】财联社2月25日电,DeepSeek在“开源周”的第二天向公众开源了DeepEP。据介绍,DeepEP是第一个用于MoE(混合专家)模型训练和推理的EP(Expert Parallelism,专家并行)通信库,可以实现高效且优化的全对全通信,支持包括FP8在内的低精度运算,适配现代高性能计算需求。同时,DeepEP针对NV