云计划

百万上下文、1.6T 参数、百万上下文、顶级推理,deepseek V4全面对标 Claude/GPT,还开源

865完整阅读约 3 分钟

两个模型,V4-Pro 和 V4-Flash,上下文窗口直接拉到1M,参数拉到1.6T,并且是DeepSeek所有官方服务的标配(可以装一整个项目)。

img0_banner.png

 V4-Pro:对标顶级闭源模型

img1_v4pro_benchmark.png

Agent能力大幅提升: 在代码类Agent评测中,V4-Pro已经达到开源模型最佳水平。DeepSeek内部已经把V4-Pro作为员工的Agentic Coding主力模型——据反馈,使用体验超过了Claude Sonnet 4.5,交付质量接近Opus 4.6非思考模式。

世界知识储备丰富: 在世界知识评测中,大幅领先其他开源模型,仅次于Gemini-Pro-3.1。

推理能力强:在数学、STEM、竞赛级代码等评测中,超越了所有已公开的开源模型,成绩比肩世界顶级闭源模型。

V4-Flash:更快更便宜

V4-Flash的推理能力和V4-Pro很接近,知识储备稍弱一些,但因为模型更小,速度更快、API价格更低,适合对成本敏感的场景。简单任务上和V4-Pro不相上下,复杂任务有一定差距。

img5_api_info.png

两个关键技术突破

全新的注意力机制

V4开创了一种在token维度做压缩的注意力方案,配合DSA稀疏注意力,在实现超长上下文的同时,大幅降低了计算量和显存占用——百万上下文不再是硬件杀手。

Agent场景专项优化

针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品做了适配,在代码生成、文档生成等任务上表现均有提升。

怎么用

在线体验

登录官网  或官方App即可使用。

API调用 

接口已同步上线,支持OpenAI ChatCompletions和Anthropic两种接口格式。base_url不变,model参数改为 `deepseek-v4-pro` 或 `deepseek-v4-flash` 即可。

两个模型都支持普通模式和思考模式,思考模式可通过 `reasoning_effort` 参数调节强度(high/max),复杂Agent场景建议用思考模式并设为max。

API文档 

注意: 旧模型名 `deepseek-chat` 和 `deepseek-reasoner` 将在三个月后(2026年7月24日)停用。目前这两个名字分别指向V4-Flash的普通模式和思考模式,建议尽快切换到新名称。

最后

deepseek 永远滴神!!