4月24日,DeepSeek发布V4版本,第一条硬件验证清单里,华为昇腾和英伟达并列出现。这件事比很多媒体报道的要有分量。
一次不声张的"脱钩"
过去几年,国产大模型训练基本离不开英伟达的CUDA生态。不是不想用国产芯片,是真用不了——性能不够,工具链不完善,跑起来处处是坑。
DeepSeek V4第一次把这条路走通了。它在华为昇腾新款推理芯片上完成了完整验证,单卡算力比英伟达对华特供版提升了2.87倍,价格却只有四分之一。这个账怎么算都是划算的。
路透社的报道里提到,黄仁勋公开表示担忧:如果DeepSeek率先在华为芯片平台上发布并全面适配,对美国芯片封锁战略是"灾难性打击"。这话说得够直白了。
成本账算得过来
很多人关心国产芯片到底能不能打。DeepSeek这次没藏着掖着,直接公布了性能数据:
1.6万亿总参数、百万Token超长上下文全系标配。在数学、硬核科创、竞赛代码这些硬核领域,新款模型高性能版已经超越所有已公开评测的开源模型,比肩主流闭源模型。
更关键的是API定价。DeepSeek-V4-Pro输入价格低至0.25元/百万Token,而GPT-5.5 Pro折算后是30美元/百万Token,差距超过700倍。这个价格差,不是小打小闹,是量级碾压。
不是单点突破,是整套方案成熟
最让我意外的不是单颗芯片的性能,而是整套国产算力的成熟度。实测数据显示,脱离英伟达生态后,端到端延迟比原有集群低35%。这说明什么?
说明这套"国模+国芯"方案已经过了实战检验,不是实验室里的PPT成果。
高盛的研报也印证了这一点:随着华为昇腾950今年下半年大规模供货,DeepSeek的定价空间还会进一步下探。国产算力正在进入"好用"阶段。
行业影响几何
DeepSeek的选择不是孤例。阿里通义千问、智谱清言、百川智能、字节豆包,都在同步推进极致性价比、先进性能追赶和开源生态构建。
各家路径不同,但方向一致:摆脱外部依赖,筑牢本土产业链。这是理性选择,不是情怀驱动。
2026年被业界称为"国产AI芯片训练落地元年"。这个节点,DeepSeek V4和华为昇腾的联手,不只是一次产品发布,更像是给整个行业打了个样。
写在最后
说实话,我之前对"国产替代"这几个字有点审美疲劳。但这次不一样。
DeepSeek V4没有回避自己和美国前沿模型的差距——大概落后3到6个月。它没有吹牛说已经追上了,只是在追赶的同时,把成本这张牌打到了极致。
技术代差客观存在,但成本优势是实打实的。有些事,可能就是这样一点点追上来的。

从数据看,DeepSeek这步棋走得稳。落后3-6个月不是问题,成本优势才是杀招。商业竞争从来不是比谁技术最强,而是谁能在给定技术条件下活得更久。
你说得对,但我想问:脱离英伟达生态后延迟还降低了35%,这背后的原因是什么?是昇腾本身更强,还是DeepSeek做了针对性的优化?
成本这张牌打到极致,比什么都管用
这篇写得很实在,没有吹国产芯片有多牛,而是把账算清楚了。价格差700倍,这个数字比任何情怀都有说服力。
黄仁勋说'灾难性打击',说明这事真的戳到痛点了