DeepSeek V4落地:资本市场的重塑三重反应
DeepSeek V4正式发布,1T参数MoE主模型与285B Flash版同步开源,芯片完整版本采用Apache 2.0协议,开源权重与部署代码全面开放。加速市场迅速作出响应,A股算力链全线走强,寒武纪实现11连阳,单日涨幅3.7%,月内累计超60%;海光信息盘中逼近涨停,收盘+8.4%;中芯国际A股+4.91%,港股+8.81%;华虹港股最高冲至+18%,收于+12%。科创芯片国泰ETF单日吸金24亿元,规模创历史新高。与此同时,港股大模型企业遭遇抛压。智谱(02513.HK)下跌8.07%,沽空比例达9.9%;MiniMax(00100.HK)跌7.40%,沽空比例飙升至22.87%,为过去三个月最高单日数据。两者招股书中均以“自研基座大模型”为核心竞争力,但面对开源冲击,估值逻辑面临重构。美股市场亦有反应。英伟达开盘下跌1.8%,盘中一度下挫2.6%,最终收平。彭博分析指出,此次波动与1月V3发布时的恐慌式抛售不同,更像一次温和但方向明确的重新计价。买方机构研究纪要中首次出现“中国AI推理需求开始与北美脱钩”的表述,预示全球算力生态正经历结构性分化。30天11个新模型:开源叙事突破临界点
V4发布时间窗口成为放大市场反应的关键因素。3月26日至4月24日,全球至少11个主流大模型发布或更新,涵盖Anthropic Opus 4.6、谷歌Gemini 3.1 Pro、OpenAI GPT-5.5、Mistral Large 3、Meta Llama 4、月之暗面Kimi K2.6、阿里Qwen3-Next、字节豆包2.5 Pro、腾讯混元3.0及Kimi K2.6 Plus,最后是4月23日凌晨发布的DeepSeek V4。平均约每2.7天即有一款新模型登场,远超基金经理阅读能力极限。然而,在此密集发布周期中,仅GPT-5.5(4月8日)和DeepSeek V4(4月23-24日)在盘面上形成持续影响。前者带动英伟达单日上涨4.2%,后者则引发中港算力链跳涨。差异不在于模型性能本身。这11个模型在LMArena排行榜上的分差普遍不超过50分,处于同一竞争段位。真正转折点来自两个叠加因素:一是开源程度,二是发布时机。前10个模型中仅有Llama 4开源,但其商用限制条款繁多,社区反馈冷淡,上线三天即退出OpenRouter前十。而V4采用无门槛、无限制的Apache 2.0协议,权重与推理代码同步释放,成为过去半年首个在性能、价格、开放度三方面同时对闭源模型构成压力的旗舰开源项目。二是时机选择。在闭源阵营持续输出的背景下,开源能否追上闭源的争论已持续两年。V4以月活预估达9000万的开源旗舰身份,将这场辩论按下暂停键。一位国内大型基金经理在路演中表示:“此前我们对开源模型估值留有折扣,现在这个折扣开始反着收。”国产算力链完成关键跃迁:从概念到生产可用
V4发布稿中一句前所未有的声明引爆市场关注:“Day 0全栈适配寒武纪思元590与华为昇腾950PR,部署代码同步开源。”这一行字背后,是过去12个月三条暗线交汇的结果:硬件、软件与外部反应。在硬件层面,华为昇腾950PR于2025年12月量产,FP4算力达1.56 PFLOPS,HBM容量112GB,首次在关键指标上对标英伟达B系列。在1T参数MoE推理任务中,单卡吞吐较H20提升2.87倍。配套的CANN 8.0软件栈将优化下沉至算子级别,公开基准测试显示,昇腾超节点(8卡950PR)端到端推理延迟比同等规模的H100集群低35%。寒武纪思元590则在单芯片FP8算力上对标H100,售价不足一半。在软件层面,vLLM主线于4月22日合并寒武纪MLU后端PR,首次原生支持非英伟达国产GPU。海光信息通过ROCm生态实现对V4 MoE路由层的完整运行。这意味着部署不再依赖单一国产卡,而是可在多家国产卡间灵活选择,打破生态对特定供应商的依赖,成为生产环境落地的关键拐点。第三条暗线来自硅谷。4月15日黄仁勋在台积电法说会上被问及中国国产算力进展,回应冷峻:“如果他们真能让LLM摆脱CUDA,对我们是一场灾难。”九日后,DeepSeek用一行公告给出了答案。“国产替代”曾被过度使用,失去实际意义。但4月24日上午起,该议题首次获得可被资本市场定价的具体数据:单卡吞吐、端到端延迟、推理成本、可商用部署代码等维度共同构建了真实可行的替代路径。寒武纪11连阳的逻辑由此转变——它不再是“国产GPU概念股”,而是“DeepSeek V4推理基础设施供应商”。华虹港股12%涨幅同样源于代工昇腾950PR的7nm等效工艺。每一颗在国产昇腾上运行的V4 token,都意味着原本流向英伟达与台积电的产能被截留于珠江三角洲。下一步已然铺就。华为路线图规划950DT(训练版)于2026年第四季度交付,目标是支持“V5或同等量级模型在万卡集群上的全栈训练”。若成功落地,将彻底改变中国大模型训练对CUDA的依赖,使英伟达的护城河从“必要”降级为“可选”。(此处为tp钱包快讯)
