量子位 03-29
博鳌热议AI大模型,人民网报告梳理产业机遇:端云结合、芯片、开源
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_caijing1.html

 

中国大模型产业该怎么看?

最新权威参考来了。

博鳌亚洲论坛 2024 年年会期间,人民网正式发布《2024 年中国 AI 大模型产业发展报告》

报告系统性分析了 AI 大模型产业发展背景、现状、典型案例、挑战以及未来趋势。旨在给政府部门行业从业者社会公众提供价值参考。

大模型热潮中,关于技术解读分析的报告不少,但是由人民网主导发布的不多。而且还选在博鳌这样的重要时间节点上发布,足见其意义非凡。

更深层传递出的信息是,大模型产业发展轰轰烈烈,转瞬即逝的机会点会出现在哪里?

报告给出了初步判断。

AI 大模型产业当下如何?

报告重点关注了 AI 大模型的当下与未来。

当下阶段,一方面,在大众、厂商、政府等共同推动下,过去一年多时间里,大模型产业发展突飞猛进。

聚焦到中国市场,推动产业发展主要有三大驱动力:

政策驱动力

技术驱动力

市场驱动力

其中,语言大模型技术演进给产业带来本源动力。经典 Transformer 架构是技术趋势最核心主干,基于人类反馈强化学习(RLHF)、指令微调、模型提示等重点技术,进一步提升语言大模型能力。

市场驱动力以实际存在的广泛需求为主,报告重点提到了办公、制造、金融、医疗、政务等场景。大模型能带来的影响主要体现在降本增效、生产自动化、降低风险、提高诊断准确率、提高政务服务效率等。

政策方面,从去年年初大模型趋势发生以来,北京、深圳、杭州、成都、福建、安徽、上海、广东等地均发布了关于 AI 大模型的相关政策,加快各地产业持续发展。

在多方因素影响下," 百模大战 " 一触即发,并将 " 战火 " 延续至今。

按照部署方式划分,已发布模型可分为云端大模型端侧大模型。云端大模型可进一步分为通用大模型和行业大模型,端侧大模型主要分为手机大模型和 PC 大模型。

目前,每一个分类中都涌现出了代表玩家和代表案例。深入落地场景包括金融、医疗、政务等。

可以看到,通用大模型代表玩家主要是互联网大厂、初创企业;行业大模型代表玩家以具备专业数据、行业知识壁垒的场景玩家为主;端云协同大模型代表厂商则是终端厂家。

值得一提的是,端云协同是大模型部署方面热议的方向,也是公认的未来趋势,当下正抢先在手机行业落地应用。

报告中以 vivo 蓝心大模型为例,展开介绍端云结合大模型的特点。

vivo 蓝心大模型是行业首个在手机端运行的开源自研大模型,包含十亿、百亿、千亿三个参数数量级,共 5 款自研大模型(10 亿、70 亿、700 亿、1300 亿和 1750)。

通过不同参数量级、多种部署方式,矩阵化大模型能够在带来 AIGC 功能同时,实现低时延推理、低内存占用。

1B 和 7B 的端侧模型,出词更快、内存占用小、安全性高、无网弱网条件都能使用。同时模型具备扎实底座,可实现精准的指令跟随,保持正确的价值观取向。

70B 模型是面向云端服务的主力,主要针对角色扮演、知识问答等场景,能兼顾成本和性能。130B 和 175B 两款千亿参数模型专门针对复杂任务。

图片来源:vivo 官网(注:榜单信息为 23 年 11 月数据)

而作为内嵌于手机内、和广大手机用户直接交互的大模型,蓝心大模型在底层算法上还强调了 3 方面:基础能力、指令跟随和价值观取向

预训练阶段,vivo 在 Transformer 架构上改良了注意力机制、位置编码等模块,采用混合精度训练以及梯度缩放策略缩短训练周期。采用 "target only loss" 方法,通过聚类分析对指令进行适应性处理,能实现更精准、均衡的指令跟随。

并且专门建立了 300 人规模的专业审核团队,制定 200 余项安全审查机制,对模型输出进行筛查和标注,确保模型价值观正确。离线采样策略和双重奖励模型等策略,还进一步提升了模型的安全性。

由此,端云结合大模型能直接以手机为载体,在设备上提供离线 / 在线 AIGC 功能。

vivo 大模型已经支持了两款应用

蓝心小 V 是 vivo OriginOS 4 上搭载的一款全局智能辅助功能,可提供超能语义搜索(利用自然语言搜索手机照片文档日程等)、超能问答(快速总结文档、基于文档回答问题)、AI 路人消除、智能识屏等能力。

蓝心千询则是一个 AI 私人小帮手 APP。它无需付费,支持 AI 对话和 AI 灵感两大能力,带来更多生产力功能,如 PPT 大纲生成、文案创作等。

以上是过去一年里,大模型产业落地取得的成绩。

但从另一面来看,随着趋势演进,大模型产业落地也浮现出更多复杂问题

报告关注了四方面问题:

算力短缺

主流架构存在局限

高质量训练集需要扩展

爆款应用尚未出现

首先,最具代表性的问题体现在算力方面

大模型规模呈指数级增长,其训练速度、产出质量都和算力直接相关。一万块英伟达 A100,是公认的 AI 大模型算力门槛。但国内能拥有万卡规模的企业少之又少,相反缺卡才是绝大多数玩家的现状。哪怕是阉割版的英伟达 A800,也出现了严重缺货和溢价的情况。

我国本土高性能芯片虽在奋力追赶,但与国际领先水平仍存在较大差距。

其次在架构上,主流 Transformer 本身对算力资源消耗就很大,目前提升模型智能化水平主要靠扩大参数规模,动辄千亿参数规模意味着消耗巨量的算力资源。而且 Transformer 架构的大模型对存储设备要求也更高,如 1000 亿个参数的 Transformer 模型,存储这些参数就需要 400GB 的空间。

并且国内的 AI 大模型数据存在质量不高、体量严重不足、缺乏数据源调用等问题。行业需要构建高质量训练数据集。

如悟道语料库,其包括文本、图文和对话数据集,最大的仅 5TB,其中开源的文本部分仅为 200GB。作为对比,GPT-3 的训练数据达到 45TB。训练数据来源主要来自互联网、电商、社交、搜索等渠道,存在数据类型不全面、信息可信度不高等问题。以及可供大模型训练的有效数据源呈现碎片化分散状态,导致大模型联网无法直接调用的情况(如微信公众号文章仅在搜狗引擎支持调用)。

最后,国内大模型领域仍未出现爆款应用

报告提出,相比于 ChatGPT 而言,国内爆款大模型应用打造还任重道远,主要原因在于尚未找到商业化思路,缺乏满足客户需求的个性化应用

我国大模型产业要推出爆款级应用,势必要在应用领域做深做细,让每一个用户都可以充分享受到大模型所带来的的真正便利。

大模型产业通往何处去?

相比于当前,更为关键的是大模型产业发展下一步该怎么走

尤其是对于中国大模型领域,产业该如何最大化发挥自身优势?需要把握住哪些命脉?这关乎中国 AI 在全球格局下的站位。

报告认为,目前我国大模型产业可以从四个方向洞见未来:

端云大模型满足不同需求,C 端用户成为端侧主要客群。

模型趋于通用化和专用化,垂直行业将成为主战场。

大模型将广泛开源,小型开发者可调用大模型提高开发效率。

AI 高性能芯片不断升级,大模型产业生态体系不断完善。

第一点,端侧大模型成为把握 C 端用户的主力

原因在于端侧大模型成本低、移动性强、更能保障数据安全,主要应用在手机、PC 等终端设备上。

端侧大模型接入个人终端设备后,能提供更加个性化的专属服务。同时还将云上计算分摊到了终端芯片上,大大降低服务器成本。

瑞银预计生成式 AI 智能手机出货量将从 2023 年的 5000 万部增长到 2027 年的 5.83 亿部,到 2027 年收入将达 5130 亿美元。未来面向广大 C 端用户的端侧大模型市场前景广阔。

第二点,行业大模型将成为主战场

报告认为,未来大模型真正的价值体现在更多行业及企业的应用落地层面。

一方面,行业大模型将通用大模型用于形成多领域能力的资源集中于特定领域,模型参数相对较小,对于企业落地而言具有显著的成本优势

另一方面,行业大模型结合企业或机构内部数据,为 B 端用户的实际经营场景提供服务,能更加体现模型对于机构的降本增效作用。

第三点,大模型将广泛开源

闭源 or 开源是大模型领域争论已久的话题。报告认为,开源能降低大模型开发者的使用门槛,同时提高算法的透明度和可信度。目前如 GLM、Baichuan、Qwen 等都在开源领域取得了不错进展。

小型开发者是推动 AI 应用落地的关键力量之一。开源则能进一步提高小型开发者的开发效率。

第四点,高性能芯片不断升级、产业生态不断完善

芯片方面,英伟达作为市场主导还在不断迭代架构。可以预见未来芯片性能还会不断升级。

产业生态方面,我国已经初步建成包括算力基础设施、大模型服务平台、数据平台、大模型及应用场景等层面在内的体系。

各个层级都有代表玩家,如算力基础设施层面的华为昇腾、服务平台方面的百度千帆、大模型层面的百度、阿里、科大讯飞、vivo 等。

综上四个方面,概括了当下对于大模型趋势的主要展望。

它们最终都指向了一个方面 "大模型接下来将朝着影响更多人的方向发展"。

对 C 端用户的影响、开源、垂直领域渗透等,都是大模型的逐步破圈。

而且这种大趋势,其实已经开始发生了。代表性事件就是国内外手机厂商纷纷拥抱大模型。

具体数据可以参考 vivo 的最新披露,目前蓝心大模型已经覆盖了超过 2000 万用户,实现了2761 万次高质量问答、画了1757 万张画,写了649 万份报告,去掉了85 万个路人。

同时对于模型本身,手机厂商也在不断升级、继续验证端云协同趋势。蓝心大模型整体数据量已升级到 " 端侧 7B"+" 云侧 70B" 的超大组合,能带来更好的大模型体验。

vivo 副总裁、vivo AI 全球研究院院长周围表示,从产业趋势来看,投入基础模型训练的公司可能会大幅减少,转而更多的公司去寻找应用场景和爆款应用。

手机正是目前场景落地中,推进比较快的领域。由此他们也为更多玩家提供了一定参考。

之所以能在手机行业快速形成大模型落地终端趋势,有以下几方面优势:

其一,有设备本身的优势

手机现在是覆盖人群最为广泛、最为便携、日常使用次数最多的一块屏幕。在手机上引入大模型,能最快让大众感受到先进 AI 能力;同时作为智能终端,手机本身也需要向着更便捷、智能、专属化的方向发展,这和大模型的特性不谋而合。

其二,有落地形式带来的优势

手机想要落地大模型,只调用云端大模型无法全面覆盖使用场景,端云协同是一种必然。这一形式对于算力的处理方式,加速了大模型应用落地。

其三,有手机厂商本身带来的优势

在大模型趋势里,手机厂商属于场景玩家队列,目前业界已经达成共识,在大模型应用落地过程中,场景玩家基于多年对行业的理解,能够更快速形成闭环,正向推动落地进程。加之大模型应用开发需要遵循人机加交互基本逻辑,手机厂商对于交互的深刻理解,也能为大模型落地个人终端提供更多经验参考。

总之,对于我国大模型产业而言,机会正在不断涌现,手机行业已经抢先得到验证。

大模型 +,未来已来

来到 2024 年,行业内外默默达成共识,这会是更 AI 化的一年。

如今,随着人民网在博鳌亚洲论坛上发布《2024 年中国 AI 大模型产业发展报告》,正式为这一趋势带来了官方定调。

这一动作,不仅能推动 AI 大模型向更多行业渗透,更是对当下大模型产业的肯定。它给产业带来信心、鼓励生态圈内各层玩家继续向前,更从宏观层面给出了发展建议,为下一阶段集中资源解决核心问题提供纲领建议。

更关键的是,普罗大众在 2024 年的春天收到了明确信号:

欢迎来到大模型 + 万物时代。

报告获取地址:

http://finance.people.com.cn/n1/2024/0326/c1004-40203918.html

—    —

点这里关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~  

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

ai 人民网 vivo 博鳌 医疗
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论