开云体育
DeepSeek R1发开云体育官方布一年了不卷功能、不融资凭什么“硬控”硅谷
DeepSeek 带着 R1 在一年前的今天(2025.1.20)横空出世,一出场就吸引了全球的目光。
,我翻遍了自部署教程,也下载过不少号称「XX - DeepSeek 满血版」的各类应用。
豆包能搜索、能生图,千问接入了淘宝和高德,元宝有实时语音对话和微信公众号的内容生态;更不用说海外的 ChatGPT、Gemini 等 SOTA 模型产品。
当这些全能 AI 助手把功能列表越拉越长时,我也很现实地问自己:「有更方便的,为什么还要守着 DeepSeek?」
于是,DeepSeek 在我的手机里从第一屏掉到了第二屏,从每天必开变成了偶尔想起。
看一眼 App Store 的排行榜,这种「变心」又似乎不是我一个人的错觉。
免费应用下载榜的前三名,已经被国产互联网大厂的「御三家」包揽,而曾经霸榜的 DeepSeek,已经悄悄来到了第七名。
在一众恨不得把全能、多模态、AI 搜索写在脸上的竞品里,DeepSeek 显得格格不入,51.7 MB 的极简安装包,不追热点,不卷宣发,甚至连视觉推理和多模态功能都还没上。
但这正是最有意思的地方。表面上看,它似乎真的「掉队」了,但实际是 DeepSeek 相关的模型调用仍是多数平台的首选。
而当我试图总结 DeepSeek 过去这一年的动作,把视线从这个单一的下载榜单移开,去看全球的 AI 发展,了解为什么它如此地不慌不忙,以及即将发布的
我发现这个「第七名」对 DeepSeek 来说毫无含金量,它一直是那个让巨头们真正睡不着觉的「幽灵」。
当全球的 AI 巨头都在被资本裹挟着,通过商业化来换取利润时,DeepSeek 活得像是一个唯一的自由球员。看看它的竞争对手们,无论是国内刚刚港股上市的智谱和 MiniMax,还是国外疯狂卷投资的OpenAI和 Anthropic。
为了维持昂贵的算力竞赛,就连马斯克都无法拒绝资本的诱惑,前几天刚刚才为 xAI 融了 200 亿美元。
在这个所有人都急着变现、急着向投资人交作业的时代,DeepSeek 之所以敢掉队,是因为它背后站着一台超级「印钞机」,幻方量化。
作为 DeepSeek 的母公司,这家量化基金在去年实现了超高的 53% 回报率,利润超过 7 亿美元(约合人民币 50 亿元)。
」的新梦。这种模式,也让 DeepSeek 极其奢侈地拥有了对金钱的掌控权。
没有大公司病,许多拿了巨额融资的实验室,陷入了纸面富贵的虚荣和内耗,就像最近频频爆出有员工离职的 Thinking Machine Lab;还有小扎的 Meta AI 实验室各种绯闻。
只对技术负责, 因为没有外部估值压力,DeepSeek 不需要为了财报好看而急于推出全能 App,也不需要为了迎合市场热点去卷多模态。它只需要对技术负责,而不是对财务报表负责。
App Store 的下载量排名,对于一家需要向 VC 证明「日活增长」的创业公司来说是命门。但对于一家只对 AI 发展负责、不仅不缺钱还不想被钱通过 KPI 控制的实验室来说,这些有关市场的排名掉队,或许正是它得以保持专注、免受外界噪音干扰的最佳保护色。
更何况,根据 QuestMobile 的报告,DeepSeek 的影响力完全没有「掉队」
即便 DeepSeek 可能根本不在意,我们是否已经选择了其他更好用的 AI 应用,但它过去这一年带来的影响,可以说各行各业都没有错过。
最开始的 DeepSeek,不仅仅是一个好用的工具,更像是一个风向标,用一种极其高效且低成本的方式,打碎了硅谷巨头们精心编织的高门槛神话。
如果说一年前的 AI 竞赛是比谁的显卡多、谁的模型参数大,那么 DeepSeek 的出现,硬生生把这场竞赛的规则改写了。在 OpenAI 及其内部团队(The Prompt) 的最近发布总结回顾中,他们不得不承认,
的发布在当时给 AI 竞赛带来了「极大的震动(jolted)」,甚至被形容为一场「地震级的冲击(seismic shock)」。
DeepSeek 一直在用实际行动证明,顶尖的模型能力,不需要天价的算力堆砌。
根据 ICIS 情报服务公司最近的分析,DeepSeek 的崛起彻底打破了算力决定论。它向世界展示了,即使在芯片受到限制、成本极其有限的情况下,依然可以训练出性能比肩美国顶尖系统的模型。
这直接导致了全球 AI 竞赛从「造出最聪明的模型」,转向了「谁能把模型做得更高效、更便宜、更易于部署」。
当硅谷巨头们还在争夺付费订阅用户时,DeepSeek 也开始在被巨头遗忘的地方扎根。
在微软上周发布的《2025 全球 AI 普及报告》中,DeepSeek 的崛起被列为 2025 年「最意想不到的发展之一」。报告揭示了一个有意思的数据:
非洲使用率高:因为 DeepSeek 的免费策略和开源属性,消除了昂贵的订阅费和信用卡门槛。它在非洲的使用率是其他地区的 2 到 4 倍。
占领受限市场: 在那些美国科技巨头难以触达或服务受限的地区,DeepSeek 几乎成了唯一的选择。数据显示,它在国内的市场份额高达 89%,在白俄罗斯达到 56%,在古巴也有 49%。
微软在报告里也不得不承认,DeepSeek 的成功更加确定了,AI 的普及不仅取决于模型有多强,更取决于谁能用得起。
下一个十亿级 AI 用户,可能不会来自传统的科技中心,而是来自 DeepSeek 覆盖的这些地区。
欧洲一直是被动地使用美国的 AI,虽然也有自己的模型 Mistral,但一直不温不火。DeepSeek 的成功让欧洲人看到了一条新路,既然一家资源有限的中国实验室能做到,欧洲为什么不行?
据连线杂志最近的一篇报道,欧洲科技界正在掀起一场「打造欧洲版 DeepSeek」的竞赛。不少来自欧洲的开发者,开始打造开源大模型,其中一个叫 SOOFI 的欧洲开源项目更是明确表示,「我们将成为欧洲的 DeepSeek。」
」的焦虑。他们开始意识到,过度依赖美国的闭源模型是一种风险,而 DeepSeek 这种高效、开源的模式,正是他们需要的参照。
影响还在继续,如果说一年前的 R1 是 DeepSeek 给 AI 行业的一次示范,那么即将到来的 V4,会不会又是一次反常识的操作。
根据前段时间零零散散的爆料,和最近公开的技术论文,我们梳理了关于 V4 最值得关注的三个核心信号。
DeepSeek 似乎偏爱在农历新年这个时间节点搞事情。有消息透露,DeepSeek 计划在 2 月中旬(农历新年前后)发布新一代旗舰模型 V4。去年的 R1 也是在这个时间节点发布,随后在春节假期引爆了全球关注。
不得不说,这种时机选择避开了欧美科技圈的常规发布拥堵期,还充分用到了长假期间用户的尝鲜心理,确实能为病毒式的传播埋下种子。
在通用对话已经趋于同质化的今天,V4 选择了一个更硬核的突破口:生产力级别的代码能力。
据接近 DeepSeek 的人士透露,V4 并没有止步于 V3.2 在基准测试上的优异表现,而是在内部测试中,让其代码生成和处理能力,直接超越了 Anthropic 的 Claude 和 OpenAI 的 GPT 系列。
更关键的是,V4 试图解决当前编程 AI 的一大痛点:「超长代码提示词」的处理。这意味着 V4 不再只是一个帮我们写两行脚本的助手,它试图具备理解复杂软件项目、处理大规模代码库的能力。
为了实现这一点,V4 也改进了训练流程,确保模型在处理海量数据模式时,不会随着训练深入而出现「退化」。
更值得关注的是 DeepSeek 在上周联合北京大学团队发表的一篇重磅论文
这篇论文揭示了 DeepSeek 能够在算力受限下持续突围的真正底牌,是一项名为 「Engram(印迹/条件记忆)」 的新技术。
HBM(高带宽内存)是全球 AI 算力竞争的关键领域之一,当对手都在疯狂囤积 H100 显卡来堆内存时,DeepSeek 再次走了一条不寻常的路。
计算与记忆解耦: 现有的模型为了获取基本信息,往往需要消耗大量昂贵的计算力来进行检索。Engram 技术能让模型高效地查阅这些信息,而不需要每次都浪费算力去计算 。
研究人员称,这种技术可以绕过显存限制,支持模型进行激进的参数扩张,模型的参数规模可能进一步扩大。
在显卡资源日趋紧张的背景下,DeepSeek 的这篇论文好像也在说,他们从未把希望完全寄托在硬件的堆砌上。
DeepSeek 这一年的进化,本质上是在用反常识的方式,解决 AI 行业的常识性难题。
它一年进账 50 亿,能够用来训练出上千个 DeepSeek R1,却没有一味卷算力,卷显卡,也没有传出要上市,要融资的消息,反而开始去研究怎么用便宜内存替代昂贵的 HBM。
过去一年,它几乎是完全放弃了全能模型的流量,在所有模型厂商,每月一大更,每周一小更的背景下,专注推理模型,一次又一次完善之前的推理模型论文。
这些选择,在短期看都是「错的」。不融资,怎么跟 OpenAI 拼资源?不做多模态的全能应用,生图生视频,怎么留住用户?规模定律还没失效,不堆算力,怎么做出最强模型?
但如果把时间线拉长,这些「错的」选择,可能正在为 DeepSeek 的 V4 和 R2 铺路。
这就是DeepSeek的底色,在所有人都在卷资源的时候,它在卷效率;在所有人都在追逐商业化的时候,它在追逐技术极限。V4 会不会继续这条路?还是会向「常识」妥协?答案或许就在接下来的几周。
但至少现在我们知道,在 AI 这个行业里,反常识,有时候才是最大的常识。


2026-01-20
浏览次数:
次
返回列表