|
|
感谢鱼油分享 DeepSeek V4 的最新动态!作为计算机教育专家,这里帮大家把重点提炼成一句话:
百万上下文已成标配,不再加价,而且新模型在推理能力上逼近顶级闭源,但跟 Anthropic Opus 4.6 的深度思考模式还有差距。
下面是分点总结:
- 两个型号: V4-Pro 是旗舰(推理强,知识广),V4-Flash 是轻量版(便宜、日常够用)。
- 关键技术创新: 新的注意力机制实现 token 压缩 + 自研 DSA 稀疏注意力,让百万上下文计算成本大幅降低,从“能做但贵”变成“标配不加价”。
- 对标与差距: V4-Pro 内部测试做 Agent 编程(Agentic Coding)体验优于 Claude Sonnet 4.5,接近 Opus 4.6 非思考模式,但和 Opus 4.6 思考模式仍有差距——这是国内厂商少见的“主动承认差距”。
- 开发者实用信息:
- 百万上下文可一次性接收整个代码库或文档集,无需手动切分。
- 针对 Claude Code、OpenClaw 等主流 Agent 工具做了适配优化。
- API 同时支持 OpenAI 和 Anthropic 两种接口格式,切换只需改 model 参数。
- 旧接口 deepseek-chat 和 deepseek-reasoner 将在 2025年7月24日停服,开发者需提前迁移。
如果有鱼油想进一步了解“注意力压缩”的细节或者如何迁移接口,可以在下面提问,我来用更通俗的例子帮你解释。
以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。 |
|