开源周

理论成本利润率545%!DeepSeek知乎发文引业内震动

图片来源:界面图库3月1日,DeepSeek官方认证账号在知乎发布了《DeepSeek-V3/R1推理系统概览》(下称《概览》)一文,首次公布模型推理系统的核心优化方案,并披露理论成本利润率高达545%,刷新了全球AI大模型领域的盈利高点,引发业内震动。《概览》显示,DeepSeek-V3/R1推理系统的优化目标是更大的吞吐、更低的延迟。为了实现上述两个目标,DeepSeek使用大规模跨节点专家并

DeepSeek开源周第四日发布:优化并行策略

新京报贝壳财经讯(记者罗亦丹)北京时间2月27日10点5分,DeepSeek发布了其“开源周”第四日的内容:优化的并行策略,其中包括DualPipe,一种用于V3/R1训练中计算与通信重叠的双向管道并行算法, 以及EPLB,一种针对V3/R1的专家并行负载均衡器。此外,DeepSeek还公开分享了其训练和推理框架的性能分析数据,从而帮助开源社区更好地了解通信与计算重叠策略和底层实现细节。编辑 寇德

"源神启动"?DeepSeek开源周连放大招!

DeepSeek于2025年2月24日正式启动“开源周”,计划连续5天每天开源一个项目。2月21日,DeepSeek发文称,构建了一支探索AGI(通用人工智能)小团队,从下周起将开源5个代码库,以完全透明的方式分享研究进展。DeepSeek于2025年2月24日正式启动“开源周”,计划连续5天每天开源一个项目。开源周首日:FlashMLA 开启高效 AI 加速新时代DeepSeek开源周的第一个项

DeepSeek“开源周”第二天开源EP通信库

新京报贝壳财经讯(记者罗亦丹)北京时间2月25日,DeepSeek发布了其“开源周”第二天的成果:DeepEP,第一个用于MoE模型(混合专家模型)训练和推理的开源EP通信库。据了解,EP为Expert Parallelism(专家并行),是一种在大规模分布式AI模型训练中使用的技术,能用于提升模型并行处理能力和训练效率。DeepSeek介绍,DeepEP的特点包括:高效且优化的全对全(all-t

DeepSeek发布开源周首个成果 可优化英伟达GPU效率

新京报贝壳财经讯(记者罗亦丹)北京时间2月24日上午,DeepSeek发布了其“开源周”的第一项成果:FlashMLA(直译为快速多头潜在注意力机制)的代码。据了解,MLA(多头潜在注意力机制)正是DeepSeek降低大模型成本使用的关键技术之一,其可以显著减少大模型训练和推理过程中的内存占用,而FlashMLA则是针对Hopper GPU(一种英伟达GPU架构)开发的高效MLA解码内核,其针对可

DeepSeek“开源周”,连续掏出两大核心武器

今天是DeepSeek“开源周”第二日,DeepSeek宣布开源DeepEP,第一个用于MoE模型训练和推理的开源EP通信库。 昨天,DeepSeek则开源了代码库Flash MLA,这是针对Hopper GPU优化的高效MLA解码内核,针对可变长度序列作了优化。 MoE(混合专家架构)和MLA(多头潜在注意力机制)被认为是DeepSeek以低成本实现杰出表现的核心原因。 简单理解,MoE架构是由

DeepSeek启动开源周

【DeepSeek启动开源周】财联社2月24日电,DeepSeek今日宣布启动“开源周”,首个开源的代码库为Flash MLA,这是针对Hopper GPU优化的高效MLA解码内核,针对可变长度序列作了优化,目前已投入生产。

DeepSeek启动开源周

北京时间2月24日,DeepSeek宣布启动“开源周”,首个开源的代码库为Flash MLA,这是针对Hopper GPU优化的高效MLA解码内核,针对可变长度序列作了优化,目前已投入生产。

DeepSeek将开源5个代码库:以全透明方式分享进展

新京报贝壳财经讯(记者罗亦丹)2月21日中午,DeepSeek官方宣布,正在为“开源周”做准备,“我们将开源5个代码库,以完全透明的方式分享我们微小但真诚的进展。”DeepSeek表示,这些在线服务中的基础构建模块已经经过文档化、部署,并在生产环境中经过实战检验。“作为开源社区的一部分,我们相信,每分享一行代码,都会成为加速AI行业发展的集体动力。每日解锁即将到来。没有高不可攀的象牙塔,只有纯粹的