今天很多人被 DeepSeek V4 刷屏。

但我看完后的第一反应,不是“参数又变大了”。

而是另一件事:中国 AI 终于开始把讨论焦点,从“能不能做出好模型”,往“能不能在自己的底座上跑出世界级模型”推了。

这才是这次 V4 最重的一层含义。

目前 DeepSeek 官网已经明确挂出一条信息:DeepSeek-V4 预览版本发布,具备世界顶级推理性能,Agent 能力大幅提高,已在网页端、APP 和 API 上线。

这说明一件事:V4 不是传闻阶段了,至少“预览版上线”这件事已经被官方坐实。

至于外界热议的 1.6 万亿参数、100 万上下文、Pro/Flash 双版本、Apache 2.0 开源、首发适配华为昇腾 等细节,目前更多来自公开流传口径和媒体转述,官方完整技术报告还没有一次性摊开。

但就算先把这些数字放一边,这次 V4 依然足够大。

因为它把一个关键问题,第一次如此直接地摆到了台面上:

下一个世界级模型,是否还必须继续长在 CUDA 上?

在这里插入图片描述


一、V4 真正强在哪?不只看参数,要看它把竞争带到了哪一层

如果只看热搜话术,V4 最容易被写成一篇“参数战报”。

这反而会把重点写小了。

这次 V4 最值得看的,至少有三层。

1)模型能力还在继续抬高上限

DeepSeek 首页已经明确把它定义成“世界顶级推理性能”,同时单独点了 Agent 能力大幅提高

这句话其实比“更强”更重要。

因为它说明 V4 不是单纯做问答分数。
它更想解决的是:模型能不能真正进入执行场景,能不能在工具调用、长任务链、复杂决策里更稳。

这意味着竞争方向已经从“谁更会答题”,继续往“谁更像一个能干活的系统”推进了。

2)外界对它的关注,已经不再只是模型架构

现在围绕 V4 的讨论,表面上在聊注意力机制、MoE、长上下文。

本质上在聊另一件事:

中国团队能不能把顶级模型、国产算力、国产软件栈三件事,第一次真正绑在一起。

这和以前不一样。

以前我们最常见的叙事是:
模型很强,但默认还是跑在英伟达的路上。

而这次最刺眼的变化,是外界普遍开始把“V4 会不会在昇腾上跑得最好”当成核心悬念。

3)这次最重的消息,不是新模型来了,而是默认底座可能变了

如果后续披露的口径坐实,那么 V4 最值得写的就不是“多了几个参数”,而是它可能正在验证一条 非 CUDA 的世界级模型路径

这件事一旦跑通,影响的就不只是 DeepSeek 自己。

它会影响工具链选择。
会影响企业采购判断。
会影响工程师学习方向。
甚至会影响未来几年中国 AI 的默认技术栈。

一句话:

V4 真正炸裂的地方,不是它又升级了。

而是它有机会把“模型竞争”升级成“底座竞争”。

在这里插入图片描述

二、为什么“从 CUDA 到 CANN”会让人这么兴奋?因为这不是换接口,是重修高速

很多非技术读者可能会觉得:
从 CUDA 到 CANN,不就是从一个框架换到另一个框架吗?

不是。

对大模型工程来说,这更像是:

把一辆原本围着英伟达赛道调教出来的赛车,拆掉发动机、传动、仪表和维修体系,再让它在另一条新赛道上继续跑出成绩。

这里最难的,不是“能不能启动”。

而是三件事:

  • 底层算子要不要重写
  • 精度、吞吐、延迟要不要重新校准
  • 训练、推理、部署整条链能不能重新打通

这也是为什么 CUDA 的护城河一直这么深。

因为它真正垄断的,从来不只是 GPU 芯片。

它垄断的是一整套默认习惯:
新框架先适配 CUDA。
新模型先优化 CUDA。
新工程师先学 CUDA。
企业上线先选 CUDA。

久而久之,CUDA 就不只是技术方案。
它变成了“默认世界”。

所以一旦 DeepSeek 这种量级的模型,开始把国产算力和国产软件栈推到前台,真正被撬动的不是某个 benchmark。

而是那条默认路径本身。

在这里插入图片描述


三、黄仁勋为什么会急?因为英伟达最怕的,从来不是参数落后,而是默认规则被改写

这几天最出圈的一段话,来自 4 月 15 日黄仁勋接受播客访谈后,被多家国内媒体转述的一句判断:

“如果 DeepSeek 先在华为平台上发布,那对我们国家来说将是灾难性的。”

还有一句也很关键:

“假设它是针对华为优化的,针对他们的架构优化的,那就会让我们处于劣势。”

这两句话一放出来,很多人第一反应是:黄仁勋慌了。

我觉得这次判断没错。

但更准确地说,他慌的不是某一张卡会不会被替代。

他慌的是另一件更大的事:

如果世界级开源模型开始优先为非 CUDA 平台做优化,英伟达过去二十年最硬的护城河,就会第一次出现公开裂缝。

因为英伟达真正厉害的地方,不只是芯片性能。

而是它让整个行业形成了一条闭环:

开发者先写 CUDA。
模型先调 CUDA。
工具链先围着 CUDA 长。
企业因此更愿意继续买英伟达。
更多开发者再回来继续优化 CUDA。

这才是最可怕的地方。

它不是单点领先。
它是自我强化。

所以 DeepSeek 一旦在昇腾上首发,象征意义为什么会这么大?

因为它等于当众证明:

世界级模型,不一定非要把 CUDA 当成唯一出发点。

这句话的杀伤力,比任何一次参数超车都大。

因为参数纪录会被刷新。

但默认规则一旦被改写,后面跟着变的,就是整条生态链。

在这里插入图片描述


四、这次最值得兴奋的,不是“解气”,而是我们终于开始自己修路

这也是我最想说的一段。

很多人看这次 V4,会看得很爽。

这当然正常。

看见美国芯片教父公开焦虑,看见中国模型和中国算力被放进同一个句子里,谁都会有情绪。

但如果文章只写到“解气”,就写浅了。

这次真正值得高兴的,是中国 AI 正在慢慢从“借别人的路跑得更快”,走向“自己开始修路”。

这条路还远没修完。

差距当然还在。

国产算力的软件生态成熟度,和 CUDA 比,依然有距离。
世界级模型的持续稳定迭代,也还要继续打。

但方向已经变了。

以前我们讨论国产 AI,常常只敢在应用层找安慰。

今天不一样了。

我们已经开始把战线压到更底层:

  • 算力底座
  • 框架栈
  • 推理链路
  • 开发者生态
  • 开源模型首发路径

这才是真正让人振奋的地方。

因为只有底层也开始动起来,所谓“中国方案”才不是一句口号。

它才会慢慢变成工程现实。
在这里插入图片描述


结语:DeepSeek V4 的意义,也许不在于它今天有多强,而在于它让未来第一次有了另一条清晰的路

我不觉得这次该写成“我们已经赢了”。

那太早,也太轻飘。

但我很确定,这次也绝不是一次普通的模型更新。

它更像一个信号。

一个关于中国 AI 开始往更底层推进的信号。
一个关于世界级模型不再默认只长在 CUDA 上的信号。
一个关于国产算力终于有机会从“替补方案”走向“主力平台”的信号。

曾经,我们最擅长的是在别人修好的高速上,把车开得更快一点。

现在,我们终于开始认真修自己的路了。

这条路还远。

但只要它真的开始铺,后面的意义就不只是一次发布会。

而是下一轮全球 AI 竞争,规则可能从这里开始改写。

中国 AI 真正值得骄傲的,不是某一次热搜。

而是我们开始有能力决定,下一代模型应该跑在什么样的底座上。

你更关注这次 DeepSeek V4 的哪一层?

是模型能力。
是华为昇腾。
还是 CUDA 生态第一次被正面撬动?

Logo

作为“人工智能6S店”的官方数字引擎,为AI开发者与企业提供一个覆盖软硬件全栈、一站式门户。

更多推荐