
DeepSeek V4模型发布:长上下文能力突破,计算需求大幅降低
DeepSeek V4模型正式发布,引入全新注意力机制,实现1M上下文处理,同时降低计算需求。本文将详细介绍其功能、性能对比及价格调整。
DeepSeek V4模型正式发布,带来了前所未有的长上下文处理能力,同时大幅降低了计算需求。
该模型引入了一种全新的注意力机制,在token维度进行压缩,结合DSA稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力。与V3.2版本相比,DeepSeek V4在1M上下文处理方面具有显著优势。

算力需求降低3~10倍
DeepSeek V4在算力需求方面也取得了显著成果。与V3.2版本相比,V4-Pro版本的计算量降低了3.7倍,V4-Flash版本降低了9.8倍。这意味着,同样的显卡和显存可以处理更多的请求,对大模型提供商来说是一个利好消息。
与同行对比
| 指标 | GPT-5.4 | Claude Opus 4.6 | Gemini 3.1 Pro | DeepSeek V4 Pro-Max |
|---|---|---|---|---|
| MMLU-Pro | 87.5 | 89.1 | 91.0 | 87.5 |
| SimpleQA | 45.3 | 46.2 | 75.6 | 57.9 |
| GPQA Diamond | 93.0 | 91.3 | 94.3 | 90.1 |
| HLE | 39.8 | 40.0 | 44.4 | 37.7 |
| LiveCodeBench | – | 88.8 | 91.7 | 93.5 |
| Codeforces | 3168 | – | 3052 | 3206 |
| Apex Shortlist | 78.1 | 85.9 | 89.1 | 90.2 |
此外,DeepSeek V4在多个性能指标上均优于同行,如MMLU-Pro、SimpleQA等。
价格调整
DeepSeek V4的价格也有所调整。V4 Flash版本降价,而V4 Pro版本全面涨价。具体价格如下:

| 模型 | 输入(缓存命中) | 输入(未命中) | 输出 | 上下文 |
|---|---|---|---|---|
| V3.2 | 0.2 元 | 2 元 | 3 元 | 128K |
| V4 Flash | 0.2 元 | 1 元 | 2 元 | 1M |
| V4 Pro | 1 元 | 12 元 | 24 元 | 1M |
总体来看,DeepSeek V4在性能和价格方面都具有竞争力。
总结
DeepSeek V4模型的发布标志着长上下文处理能力的突破,同时大幅降低了计算需求。对于需要处理大量文本数据的用户来说,DeepSeek V4是一个值得关注的模型。