3 月 26 日,商汤发布 2024 年全年业绩财报。2024 年,商汤集团的总体收入同比增长 10.8%,达到 37.7 亿元人民币;其中,生成式 AI 收入突破 24.0 亿元人民币,同比增长 103.1%,这是生成式 AI 连续两年保持三位数增速,已成为集团最大业务。
大模型面世两年多时间以来,从前期的一味追求大模型 Scaling Law,到如今算力效率、训练转推理,应用落地等被接连质疑,大模型已经全面来到新的发展阶段。
这是产业逐步成熟的标志,但同样也在堆叠算力之外,对工程技术以及场景协同能力提出了更高的要求。
在众多传统大模型厂商之外,作为第一代 "AI 原生 " 企业,商汤在 AI 基础设施上的投入早于几年前便开始布局,此后战略升级为 " 大装置 - 大模型 - 应用 " 的三位一体核心战略,而这一战略正显现出其在 AI 产业的前瞻性。
" 大装置 " 是指商汤的 AI 基础设施,为大模型提供强大的算力支撑,大模型驱动技术创新,应用端推动 AI 商业化落地——过去三年,商汤已经形成了 " 大装置 - 大模型 - 应用 " 三者协同的良性生态闭环,赋能千行百业。
我们看到的是,历经过多次技术周期起伏,商汤的技术积淀正迎来爆发。
01 有算力、懂算力
2024 年 5 月,国内权威大模型测评机构 SuperCLUE 榜单出炉。商汤 " 日日新 5.0" ( SenseChat V5 ) 的中文基准测评结果排名第一,以总分 80.03 分的成绩刷新国内最好成绩,并且在中文综合成绩上超越 GPT-4 Turbo,这是国内大模型首次在 SuperCLUE 中文基准测试中超越 GPT-4 Turbo 实现登顶。
之所以能够斩获如此成绩,与商汤在 AI 基础设施上的提早布局至关重要。
众所周知,2024 年以来,全国智算中心的建设高速推进。从训练到推理,算力的资源属性愈发显现,而且市场仍面临算力资源分散且标准不统一、使用起来效率不高的问题。
商汤正是针对这一痛点,布局算力运营,将不同标准的卡连接起来,适配不同需求,满足不同类型的客户。
商汤科技董事长兼 CEO 徐立认为,一些科技巨头的重心在于自己的生态,包括自研芯片和云平台等,但当下 AI 领域要抢占先机,什么资源更快更好用就先用起来,不局限于一家的产品和平台," 商汤提供的基础服务更贴近 AI 发展现状。"
过去三年,商汤持续投入建设 AIDC 基础设施。据悉,商汤自持的全国首个 5A 级智算中心——上海临港 AIDC,通过运营模式将算力规模提升至了 23,000PetaFlops。
通过与大模型迭代的联合调优,商汤大装置的目标是成为 " 最懂大模型的 AI 基础设施 ",不仅服务于日日新大模型的训练与推理,还服务于包括互联网、金融、能源等成熟行业,还拓展性服务了具身智能、AIGC、AI4S(AI For Science)等高潜行业的客户。
徐立曾表示,商汤是最懂模型的算力服务商,最懂算力的模型服务商。
02 三位一体
算力只是生态其中一环。大模型产业能够高效运转,还需要靠上下游协同发力。
" 今天人工智能的商业模式不管是训练模型,还是用模型对外服务,本质意义上都是在消耗资源,付的是资源的费用。所有的商业模式最后都和计算资源消耗划了一个等号,就是通过‘三位一体’,把资源以最有效的方式整合使用起来。" 徐立表示。
" 三位一体 " 是 2024 年 10 月商汤确立的战略方向,是商汤以大装置作为 AI 基础设施为底座,实现 " 大装置 - 大模型 - 应用 " 三位一体、联合优化的战略。
算力与模型的双向优化,进一步提升了大模型的训练和推理效率。在提升训练效率方面,商汤通过采用自动化多维并行策略显著提升了训练效率,并且实现了 FP8 混合精度训练,特别是对类似于 DeepSeek 的优秀第三方开源模型,大装置做到高于官方报告的训练效率,形成行业标杆。
在提升推理效率方面,商汤的推理系统进行低比特量化推理,支持开源 vLLM 及自研 lightLLM 双推理引擎,以 DeepSeek R1 为例,商汤的推理吞吐性能比业界头部厂商高 15% 以上。通过模型蒸馏技术、键值缓存、PD(Prefill-decode)分离、多模态信息压缩等技术,商汤在基本保持模型性能的前提下将推理成本压低了一个数量级。
因此,即使是同样一个模型,在不同的算力底座上,会有完全不同的训练及推理效率。
随着向生成式 AI 演进的稳步推进," 三位一体 " 进一步整合了商汤的资源优势,使其在大模型时代的内卷竞争中打出差异化。
商汤科技日日新大模型重点打磨生产力工具与交互工具两个方向的应用与产品。生产力工具直接为企业办公、金融、政务等场景提高生产效率,以订单金额为代表的客户付费意愿较 2023 年增长 6 倍;交互工具通过 2B2C 的方式赋能业务伙伴,提升用户体验,满足智能陪伴、智能硬件交互、智能营销等多场景需求,月均用户使用量较 2023 年增长 8 倍。
日日新大模型在保持领先的市场应用占有率和客户服务粘性的基础上,在模型技术上始终保持领先的位置。2023 年 4 月商汤首次推出商汤日日新 SenseNova 大模型体系,至 2024 年 7 月完成 5 大版本迭代。其中,2024 年 7 月发布的日日新 5.5 版本在多模态能力上显著提升,为国内首个对标 GPT-4o 的多模态实时交互大模型,实现语音、视频和语言模型的原生融合。值得期待的是,商汤日日新 6.0 将于 2025 年 4 月 10 日发布,性能预期对标 Gemini 2.0 Pro。
此外,基础设施搭建好后,商汤同样及早布局应用。
03 为什么是原生融合多模态
生成式 AI 爆发后,多模态大模型早已成为人们追求的方向。然而,市面上很多应用中接触到的多模态模型并不能说是 " 完全体 "。
就像谷歌所认为的,只有从头开始的多模态才能构建出超越前代的先进模型。这意味着它天生地可以读取和输出不同模态内容,还具备强大的多模态推理能力和跨模态迁移能力。
技术上,这被称为 " 原生融合多模态技术 ",被认为是 AI 未来发展的必由之路,也是商汤当下重点投入的研究领域。
与传统的多模态模型不同,商汤的技术并非简单地将不同模态内容转换为语言 token 输入,而是从数据层、模型架构层进行全流程融合,涵盖感知、思考到输出的完整过程。
在 2024 年全球 CVPR 大会上,商汤科技共有 50 篇论文入选,研究成果聚焦于视觉语言基础模型,涉及自动驾驶、机器人等前沿领域。
商汤的多元化 AI 产品均已有所应用成效。据悉,目前商汤 " 小浣熊家族 " 已为数十万用户提供数十亿次智能辅助服务。而商汤绝影在行业内也率先实现了原生多模态大模型的车端部署。
在 AI 的新阶段,商汤前瞻性地布局了硬件基础设施和应用端,通过底层和上层的协同优化构建起了技术壁垒。
在基础设施端,商汤自建 AI 数据中心(AIDC)和规模化研发服务,确保公司在传统基础设施厂商和 AI 原生公司中脱颖而出。在应用端,商汤拥有全栈体系 AI 应用,覆盖行业广泛,大模型聚焦于原生融合多模态发展。
可以预见,商汤的 " 储备 " 有望在 AI 应用爆发后为公司带来巨大发展空间。
登录后才可以发布评论哦
打开小程序可以发布评论哦