最新一周全球大模型数据出炉,中国AI实现里程碑式反超——但这次不是某个技术突破,而是一个信号:国产大模型真的开始主导市场了。
2.5倍:中美差距逆转
根据OpenRouter平台数据测算,4月27日至5月3日这一周,中国AI大模型周调用量达到7.942万亿Token,环比增长81.7%;美国只有3.258万亿Token,环比下滑34.6%。中国调用量达到美国的约2.5倍。
更早的数据显示,4月初中国AI大模型周调用量已达12.96万亿Token,连续第五周超越美国。现在这个趋势在延续。
DeepSeek:极致性价比的代表
DeepSeek V4系列包括Pro和Flash双版本,均支持百万Token超长上下文。V4-Pro单Token推理计算量压缩至前代的27%,KV缓存占用降至10%。
价格更是杀手锏:V4-Flash每百万Token输入缓存命中只要0.02元,限时优惠后V4-Pro只要0.025元。这个价格让很多中小企业和个人开发者都能用上顶尖模型。
Kimi:长周期Agent的突破
Kimi K2.6采用1万亿参数的MoE稀疏架构,每个Token激活32B参数,可支持300个子Agent并行工作。更重要的是,它能持续自主运行长达五天,能一次性交付代码、文档、网页、PPT及表格等复杂工作流。
商业化也走在前面:ARR从3月初的1亿美元增长到4月的超过2亿美元,半年翻倍。
开源生态的中国模式
DeepSeek与Kimi的竞争很有意思:你用我的架构,我用你的优化器。DeepSeek首创的MLA注意力机制被Kimi采用,Kimi验证的Muon优化器被DeepSeek引入。这种技术共享模式跟硅谷把技术当护城河的理念完全不同。
在全球开源模型榜单上,前五名全部是中国模型,DeepSeek与Kimi包揽前两名。
美国在下滑:贵、而且在挤牙膏
GPT-5.5发布后价格翻倍、Anthropic用新分词器变相增加Token消耗、各家大厂普遍上调AI算力价格30%至50%——这些都在推高用户成本。
反过来看,国产模型不仅在追技术,还在打价格战。这种竞争格局下,美国AI大模型的全球份额压力只会越来越大。
DeepSeek的价格是真的香,0.02元就能调用,这成本几乎等于不要钱
Kimi那个5天自主运行的Agent能力有点意思,这已经接近真正的数字员工了
开源双雄这个说法很准确,DeepSeek和Kimi确实是国产开源的两面旗帜
美国那边确实在犯贵,AI应用普及速度会被拖慢
2.5倍这个数字确实震撼,但也要看是什么场景,美国在某些高端场景还是有优势的