开云体育
开云体育官方从数十亿到几百万vivo副总裁揭开DeepSeek如何终结大模型“军备赛”
头部手机厂商都有共识,生成式AI对手机行业的影响可比肩当年智能手机替代功能机,错过AI手机的厂商可能会遭遇“诺基亚时刻”。
与过往手机厂商将主要精力放在AI文生文、文生图等单点AI功能不同,今年头部手机厂商更注重将大模型技术融入手机操作系统,致力于用AI重构底层系统,向AIOS演进,同时推动多设备间的互联互通。
在这个背景下,手机AI助手不再仅仅是被动回答问题的“工具”,而是逐渐演变为用户的“智能管家”,能够主动理解用户意图,并自主完成一系列复杂的操作任务。
“端侧AI的终局是Agent。vivo专门构建了面向UI操作的训练数据,让模型能理解界面、执行跨应用操作。这可能是全球首个专门为端侧Agent构建的3B模型,并将成为开发者们构建下一代智能应用的核心引擎。”vivo副总裁、OS产品副总裁、vivo AI全球研究院院长周围在2025 vivo开发者大会上表示。
目前,在构建手机智能体(Agent)能力方面,vivo已重点推进两项工作:一是全面支持并实现了智能体对手机本机功能及系统能力的调用;二是完成了智能体商店的搭建,以及个人化智能体运行框架等平台级能力的建设,相关基础能力已基本就绪。
不过,要让手机等端侧AI拥有面向未来的Agent能力,还需实现跨智能体(Agent-to-Agent)之间的协同与通信。这一目标并非单一厂商能够独立完成,而需要整个行业协同推进、共建标准。
“犹如过去手机是APP分发的主要渠道,整个行业对应用商店的分发权限、边界一直非常敏感。在智能体时代,分发机制同样是一个高度敏感的问题。因此,在涉及智能体分发机制,特别是互联网应用类智能体的分发权问题上,vivo主张通过‘协商共建’的方式推进。”周围进一步解释。
对于手机厂商来说,要做好面向终端用户的智能体,首先要构建端侧大模型能力。与其他厂商追求更大参数的模型不同,vivo在手机端聚焦3B模型。
vivo曾在2023年开发者大会上发布了自研大模型矩阵——蓝心大模型(BlueLM),包含覆盖十亿、百亿、千亿三个参数量级的五款vivo自研大模型。
对于为何在端侧聚焦3B模型而非选择更大参数的模型,周围解释称:“大模型的能力不能只看参数大小,更应关注实际效果。在部署端侧大模型时,首先要明确它在手机上需要完成哪些具体任务——我们必须先厘清这些需求,才能做出合理的技术选择。”
他指出:“目前,云端大模型的能力相对容易构建和完善,真正的挑战在于如何让轻量级的小模型在端侧高效完成意图理解、任务拆解和服务调用。只有将模型部署在本地,才能实现低延迟响应和高隐私保护,持续、实时地理解用户行为,这是打造智能体体验的关键基础。”
在手机端侧运行大模型,面临存储空间、功耗、内存占用等一系列技术挑战。以7B模型为例,其运行时需要占用高达3.5GB的内存。
目前8GB内存是中高端机型的主流配置,如果一个模型就接近占用近4GB内存,手机系统和其他应用仅剩约4GB可用空间,这会显著影响多任务处理和整体流畅度,相当于将高端手机的使用体验降级至入门级水平。对于内存更小的中低端机型而言,更是难以承载这样的资源消耗。
“3B模型在端侧仅占用约2GB内存,大幅降低了资源消耗,不会影响高端机的整体性能,也让中端机型具备了运行智能体核心模型的能力,解决了‘模型太大、手机变卡’的难题。”周围解释。
除降低内存占用外,vivo端侧3B模型在任务拆解与意图理解上实现跨越式提升,成为手机核心的“意图中控”。其端侧生成效能翻倍,单次输出达200 tokens;而EdgeInfinite算法,实现端侧128K长上下文处理,使用户能本地高速处理长文档。
自今年年初DeepSeek发布其高性能开源大模型以来,vivo等国内主流手机厂商就陆续接入DeepSeek大模型,为用户带来AI助手的全面升级。
公开资料显示,vivo的蓝心小V已集成深度思考模式,其核心正是基于满血版的DeepSeek模型,显著提升了端云协同的智能服务能力。
对此,周围表示,当DeepSeek出现之后,一下子就把大家在千亿大模型上的能力拉齐了。因为它做了一件很了不起的事——完全开源,而且支持我们“满血部署”。
“2024年,我们做了1750亿参数的模型,做出来之后还要往下走,搞矩阵模式。但很快我们就发现,万卡集群都不够用了,必须上两万卡以上的集群。光是设备投入,两万卡就要再多花二十几亿,而且这还远远不够。这样下去,我觉得通用人工智能是卷不动的。”
“国内做大模型的行业,大家也都知道,很多创业公司根本烧不起。募资几百亿,做个4000亿参数的模型,光买算力可能就要花50亿,其中三分之一差不多是15亿电费,往后每年还要持续烧这么多电,根本撑不住。”周围说。
在DeepSeek出现之前,国内公司自研大模型普遍面临算力“军备竞赛”的困境:训练千亿级模型需要上万张GPU组成的算力集群支持,设备投入动辄数十亿元,后续每年还需承担高昂的电费和运维成本,使得通用人工智能的“参数内卷”难以为继。
而DeepSeek的开源打破了这一局面。其完全开放的架构和“满血可部署”的特性,让高质量大模型不再被少数巨头垄断,使整个行业重回同一起跑线。
公开资料显示,DeepSeek通过算法创新(如MoE架构、FP8训练、强化学习优化等),仅用557万美元的训练成本就实现了接近GPT-4的性能,远低于传统动辄上亿美元的投入,直接挑战了依赖算力堆砌的发展模式。
“对于vivo这类既需要进行模型训练,又注重端侧优化的厂商来说,DeepSeek不仅提供了强大的云端基座模型,还显著提升了7B、3B等小模型在蒸馏和迭代过程中的效率,大幅降低了研发成本,有力推动了端侧AI能力的升级。”周围表示。