经济观察报 昨天
vivo在AI战略上“自洽”了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

经济观察报   记者   陈月芹

一年一度的开发者大会是 vivo 年度技术战略的重要发布窗口。10 月 10 日,在 "2025 vivo 开发者大会 " 上,vivo 副总裁周围反思了近年来 vivo 的 AI 战略重心从 " 不自洽 " 到 " 自洽 " 的过程。

vivo 是目前公开披露 AI 投入最高的手机厂商之一。截至 2024 年 10 月,vivo 在 AI 领域的投入已经超过 230 亿元:从 2017 年建立团队,到 2018 年发布 AI 品牌 JOVI、AI 团队规模超 1000 人,再到投入数十亿打造万卡训练集群。

vivo 未来是否会逐步把重心放在端侧 AI,而战略性放弃曾经的通用大模型路径?面对这一问题,周围没有直接否认。他表示,从去年到今年,vivo 在 AI 方面以同等力度作投入,但关注点有了变化:

一是放弃烧钱做通用大模型。2023 年,vivo 专注于把大模型做到各个榜单上的第一,发力做千亿甚至 1750 亿参数的大模型。直到 2023 年底发现大模型要往通用智能发展,模型参数往 2000 亿、4000 亿级以上跑时,"(只)投 200 亿元是不够的 ",周围说。

卷模型参数的 " 军备竞赛 " 的代价是巨大的。周围算了一笔账:要做两万卡以上的集群,光设备就要加 20 几亿 。更残酷的是,卷到 4000 亿参数,可能要花 50 亿元买算力,其中 15 亿元是电费,而且以后每年都要烧这么多钱。他直言:" 卷通用人工智能,不现实,也烧不起。"

二是不再追求堆参数规模的模型矩阵,而将核心技术平台从早期的 13B/7B 模型,收敛至更轻量、高效的 3B 甚至 1B 端侧模型。

2023 年底,vivo 发布自研 AI 蓝心大模型矩阵,其中包括 1750 亿级蓝心大模型 175B。

把 AI 和手机结合,模型参数越高越好吗?经过近两年的试验与思考,周围的答案是否定的。

vivo 团队曾尝试将 7B 模型部署到端侧,但发现其占用内存过大(3.5G),而 vivo 的中高端机型的内存主要配置为 8G,低端机内存的标准配置为 4G。这意味着,部署一个 7B 端侧模型,会直接导致手机性能下降,甚至让高端机型也失去了优势。此外,7B 模型只能做简单的任务拆解,不能做复杂推理。

直到今年,vivo 团队找到了更理想的方案:3B 模型。这款模型一举解决了内存和推理两大难题:一方面,3B 模型内存只占 2G,不影响高端机的性能;另一方面,其推理能力远超 7B 甚至 8B 模型,能够处理复杂的任务拆解和意图识别,几乎可以把它放在手机上作为任务拆解的中台。

vivo 在端侧模型的小型化道路上也越走越远。周围提到,除了 3B 模型,vivo 还在做 1B 模型。1B 模型虽然推理能力不强,但可以对手机进行实时监测和记忆,可以 24 小时在线,用于地址围栏、行为监测和系统参数的实时分析。这解决了 3B 模型在后台运行时耗电过高的问题。

周围坦言,从大模型 " 内卷 " 的洪流中抽身出来,vivo 在 AI 的认知和产品规划方面走过了从迷糊到 " 自洽 " 的阶段。"2023 年,当时感觉一个全新的时代到来,我们要做一个划时代的颠覆性的东西,无论是对外还是对内沟通都极不自洽。我们迷糊了一年多,但今年以来,我们非常自洽,非常清晰地知道自己在做什么。"

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

vivo ai 人工智能 开发者大会 核心技术
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论