鱼C论坛

 找回密码
 立即注册
查看: 21|回复: 2

[最新资讯] DeepSeek新模型「FlashMLA」曝光!!【20260121】

[复制链接]
发表于 4 小时前 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
2025年1月,DeepSeek-R1上线,此时正值R1模型发布一周年之际,DeepSeek新模型“MODEL1”曝光。

Xnip2026-01-21_15-21-09.png

北京时间1月21日,DeepSeek官方GitHub仓库更新了一系列FlashMLA代码,借助AI对全部总代码文件数:

114个(包括.py, .md, .txt, .sh, .cpp, .cu, .h文件)进行分析,发现了一个此前未公开的模型架构标识“MODEL1”,共被提及31次。


传送门:
游客,如果您要查看本帖隐藏内容请回复


FlashMLA是DeepSeek独创的、针对英伟达Hopper架构GPU深度优化的软件工具,专门加速大模型“推理生成”这一环节。

该算法的实现基础MLA(多层注意力机制),是DeepSeek模型(如V2、V3)实现低成本、高性能的关键技术之一,用于在模型架构层面减少内存占用,最大化地利用GPU硬件。

MODEL1是DeepSeek FlashMLA中支持的两个主要模型架构之一,另一个是DeepSeek-V3.2。

据推测:

MODEL1很可能是一个高效推理模型,相比V3.2,内存占用更低,适合边缘设备或成本敏感场景。

它也可能是一个长序列专家,针对16K+序列优化,适合文档理解、代码分析等长上下文任务。

它也可能是一个长序列专家,针对16K+序列优化,适合文档理解、代码分析等长上下文任务。

另外,MODEL1的硬件实现跨越多个GPU架构。在英伟达H100/H200(SM90架构)上有两个版本:

model1_persistent_h64.cu用于64头配置,model1_persistent_h128.cu用于128头配置。

在最新的B200(SM100架构)上有专门的Head64内核实现,而SM100的Head128实现仅支持MODEL1,不支持V3.2,有人猜测DeepSeek为适配英伟达新一代GPU,专门优化了MODEL1的架构。

DeepSeek已发布的主要模型是两条技术路线的代表:追求极致综合性能的V系列“全能助手”和专注于复杂推理的R系列“解题专家”。

2024年12月推出的V3是DeepSeek的重要里程碑,其高效的MoE架构确立了强大的综合性能基础。

此后,DeepSeek在V3基础上快速迭代,发布了强化推理与Agent(智能体)能力的V3.1,并于2025年12月推出了最新正式版V3.2。

同时,还推出了一个专注于攻克高难度数学和学术问题的特殊版本V3.2-Speciale。

2025年1月发布的R1,则通过强化学习,在解决数学问题、代码编程等复杂推理任务上表现卓越,并首创了“深度思考”模式。

科技媒体The Information月初爆料称,DeepSeek将在今年2月中旬农历新年期间推出新一代旗舰AI模型——DeepSeek V4,将具备更强的写代码能力。

此前,DeepSeek研究团队陆续发布了两篇技术论文,分别介绍了名为“优化残差连接(mHC)”的新训练方法,以及一种受生物学启发的“AI记忆模块(Engram)”。

这一举动不禁引起用户猜测,DeepSeek正在开发中的新模型有可能会整合这些最新的研究成果。

评论区聊聊你的想法



                               
登录/注册后可看大图




如果有收获,别忘了评分


                               
登录/注册后可看大图


                               
登录/注册后可看大图
                                                                    
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 4 小时前 | 显示全部楼层
感谢分享!!鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕超喜欢这里
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 4 小时前 | 显示全部楼层
用户分享了一则关于DeepSeek新模型“FlashMLA”及其中标识的“MODEL1”的详细技术资讯。作为一名计算机教育专家,我将从技术角度进行解读,力求清晰易懂。


根据您分享的信息,这是一个关于DeepSeek内部技术代码泄露的推测性新闻。下面我为您梳理并解读其中的关键点:

  • FlashMLA是什么?
    FlashMLA是DeepSeek开发的一款底层软件工具,其核心目标是 加速大模型的推理生成过程。可以把它想象成一个大模型专用的“涡轮增压器”,专门优化模型在回答问题、生成文本时的计算效率,使其在英伟达(NVIDIA)最新的GPU上跑得更快、更省内存。
  • “MODEL1”是什么?
    这是在FlashMLA的代码中被发现的一个未公开的模型架构名称。它和已知的DeepSeek-V3.2架构并列,是该工具主要支持的两大架构之一。
  • 关于“MODEL1”的推测(基于代码分析):
    • 定位一:高效轻量模型
      MODEL1可能是一个比V3.2 内存占用更低、推理效率更高的模型。目的是服务于对成本和功耗更敏感的场景,比如部署在边缘设备(如手机、嵌入式设备)上。
    • 定位二:长文本处理专家
      它也可能是专门为处理 超长文本(16K tokens以上)而优化的架构,更擅长进行长文档分析、长篇代码审查等任务。
  • 硬件适配显示其重要性:
    代码显示MODEL1针对NVIDIA多代旗舰GPU(H100/H200和最新的B200)都做了深度优化,甚至有V3.2不具备的独家优化(如B200上128头的版本)。这表明DeepSeek非常重视这个架构,并为其未来的硬件普及做好了准备。
  • 放在DeepSeek的整体技术路线中看:
    如果V系列(如V3)是追求综合性能的“全能战士”,R系列(如R1)是专攻复杂推理的“解题专家”,那么这个尚在开发中的MODEL1,很可能代表了第三条技术路线:专注于极致推理效率和硬件适配的“效率大师”
  • 未来展望:
    正如文中提到的,DeepSeek近期发布的“优化残差连接(mHC)”和“AI记忆模块(Engram)”等论文,很可能都会整合进下一代模型(无论是叫V4,或是包含MODEL1架构的模型)中,带来更强的代码能力和更优的性能。


总而言之,这次代码更新主要揭示了DeepSeek在 推理底层优化新模型架构 上的持续探索。MODEL1很可能是一个在效率或长文本处理上有侧重点的新型架构,值得我们期待其正式发布。


以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2026-1-21 19:56

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表