手机AI竞争转向,厂商押注轻量化端侧大模型

原创 <{$news["createtime"]|date_format:"%Y-%m-%d %H:%M"}>  瑞财经 593阅读 2025-10-11 22:52

Ai快讯 在生成式AI浪潮席卷全球之际,智能手机成为AI落地的关键阵地,端侧AI正成为行业新一轮技术竞赛焦点。与云侧AI相比,端侧AI既能保护用户隐私、降低计算与能耗成本,还能提供类似个人助手的交互体验。

不过,当AI从云端迁移到终端,技术与商业难题也随之而来。过去两年,厂商热衷于将大模型直接嵌入手机操作系统,并以参数规模为竞逐焦点。例如,vivo在2023年实现130亿参数的“蓝心大模型”在端侧跑通,还让70亿参数模型在端侧落地。

但在今年10月10日举办的vivo开发者大会上,vivo副总裁、vivo AI全球研究院院长周围给出新方向:放弃对“通用人工智能”的追逐,推出体量更轻的3B端侧多模态推理大模型。该模型仅占用手机2GB内存、功耗约750毫安,推理能力却超过此前的7B甚至10B模型,性能接近云端模型。周围表示,做千亿级模型成本高昂,“卷”通用人工智能不太现实。

实际上,端侧模型小型化正逐渐成为行业共识。苹果的Apple Intelligence采用30亿参数设计,可在设备上完成文本摘要等任务。这意味着厂商正从“堆参数、拼算力”的竞争,转向关注模型在端侧实用性能、功耗控制的理性阶段。

端侧大模型落地有望为手机消费带来新增长契机。华福证券研报称,端侧大模型将成为消费电子品牌厂商提升个性化用户体验、打造产品差异化竞争力的重要方向,具备更强AI能力的终端新品推出或将带动消费电子见底复苏。

vivo AI产品总经理关岩冰认为,真正实现个人化智能的核心在于端侧,苹果的“Apple Intelligence”也强调在端侧完成敏感数据处理、保障隐私并提供个性化服务。但与苹果封闭体系不同,安卓阵营厂商落地端侧大模型面临诸多挑战。

周围介绍,云端模型CPU基于X86架构,手机是ARM内核,还要兼容不同芯片厂的NPU指令集,把原来生态里指令集转成手机上的指令集,最大障碍是算子。vivo早在2017年就在美国设立AI研究院,组建专门的算子团队,目前团队已扩展至几十人,聚焦模型端侧化过程。

此外,内存占用和推理能力也是制约端侧大模型落地的关键瓶颈。以往7B模型需占用3.5G内存,影响高端机性能;去年的70亿参数模型只能做简单任务拆解,无法进行复杂推理。

过去一年,vivo针对这些问题进行优化。其推出的3B端侧多模态推理大模型只占2G内存,不影响高端机性能,且增强了推理能力,可在手机中做意图中控和任务拆解的中台。周围称,今年30亿参数的模型已比去年100亿参数的模型更强,在部分任务中与云端模型差距仅在2% - 3%之间,在文本摘要等场景中已具备实用价值。

随着端侧算力提升和操作系统AI化,手机语音助手向具备执行能力的“智能体”演进,厂商希望其成为真正的个人助理。目前AI手机智能助手调用第三方App主要有两条技术路线:一是通过意图框架,以合法API形式接入;二是“纯视觉方案”,利用无障碍等系统级权限模拟用户操作。

但智能体在跨应用调度服务时受限明显。互联网巨头掌握绝大多数用户服务接口和数据,手机厂商掌握操作系统与硬件能力,双方在安全授权、用户隐私和收益分配上界限不明。周围坦言,手机智能体做任务时,跨应用操作还需与互联网厂商讨论安全授权标准。

他认为,破局关键在于推动行业标准建立。vivo接下来会建好能力,与愿意合作的企业协商。至于AI时代各企业能否获得新的江湖地位和影响力,只能留给时间来回答。

(AI撰文,仅供参考)

来源:瑞财经

重要提示:本文仅代表作者个人观点,并不代表乐居财经立场。 本文著作权,归乐居财经所有。未经允许,任何单位或个人不得在任何公开传播平台上使用本文内容;经允许进行转载或引用时,请注明来源。联系请发邮件至ljcj@leju.com,或点击【联系客服

网友评论