极客公园 6小时前
一句AI 时代,模糊了多少技术落地的复杂需求
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

穿透「行业」和「公司」的表象,回归「业务场景」的算力特征。

2025 年,生成式 AI 技术浪潮正从概念验证加速驶向产业深水区。在企业摩拳擦掌、试图借助 AI 重塑竞争力的同时,一个更为现实的挑战浮出水面:如何将前沿技术的潜力,稳定、高效且经济地转化为真实的业务价值?如何避免陷入雷声大雨点小的尴尬?

MIT 在 7 月发布的《The GenAI Divide:State of AI in Business 2025》报告,用一组数据揭示了一个关键的转折点:全球企业投入 AI 转型的 300 亿至 400 亿美元中,大部分项目仍处于探索阶段,仅有少数先行者成功跨越了从「试点」到「规模化」的鸿沟。

而其中的分野,往往不在于模型的先进程度,而在于对算力成本与应用效率的精准把控。

更深层的问题则在于行业认知误区:多数玩家都习惯于将 AI 转型与模型和硬件直接挂钩,然后得出企业拥有的 GPU 算力等于权力,上马最优秀的 SOTA 模型,就等于最好的应用效果的粗暴论断。

但一定程度上,只看见 AI,恰恰成为了这波 AI 转型浪潮中最大的智商税。

面对这一困局,行业已经开始集体反思:算力竞赛的焦点正从单一的 AI 加速器,转向整体基础设施的效率。这也解释了为何在 AI 时代,高性能 CPU 的需求不降反增—— CPU 作为整个算力架构的「调度中枢」与「效率基石」,在不同场景中成为平衡效率与成本的关键。

AI 时代的困局

从自动驾驶到人脸识别,从游戏到直播,从互联网到制造业,几乎没有不需要 AI 加速的产业。

但现实是,同样的 AI 转型,落地的不同产业都有着各自的特性与需求痛点。如果只看见 AI,往往会导致技术与产业需求脱节,既无法解决产业真正的痛点,也让 AI 本身沦为空中楼阁。

比如在自动驾驶领域,普通人或许觉得实现自动驾驶,就是把一个聪明的大模型「大脑」装进汽车,再给车装上「眼睛」(摄像头)。但对小鹏这样的玩家来说,现实远比这复杂。

让自动驾驶真正能用起来,首先面临一个庞大的数据工程:为支撑智能驾驶辅助 VLA-OL 等模型迭代与 3D 高斯场景重建等仿真任务,小鹏每日需处理视频、图像、雷达数据等 PB 级多模态数据。从摄像头视频流的畸变校正到激光雷达点云的地面分割,每一步都面临算力效率与成本控制的双重压力。更关键的是,所有原始数据均需经过转码这一 CPU 密集型操作才能用于训练,而自建数据中心成本过高,上云后的实例选择与效率优化同样是个难题。

同样在视频领域,用户觉得看视频只是「点击播放」那么简单。但对微帧科技这样的头部视频编码服务商而言,现实是每月要帮 100 多家头部企业处理超 15 亿分钟的视频,还要保证低成本、低延迟的全球传输。挑战不仅是编码本身,更在于编码前的降噪、画质增强等 AI 预处理环节,这带来了巨大的算力需求和极高的性能要求;同时,非实时任务还必须兼顾成本控制与资源利用率。

甚至,即使面临同样的互联网场景高并发需求,金融场景与游戏场景的需求也天差地别。

金融安全领域的「高并发」,核心要求是「零容错」。普通人眼中简单的「刷脸」认证,对蚂蚁集团旗下的 ZOLOZ 而言,每一次「刷脸」都是高风险的信任交付。ZOLOZ 同时在为全球 14 个国家、70 余家合作伙伴提供服务,这背后既要应对海量访问,还必须满足各地严苛的安全合规标准。真正的痛点在于「刷脸」瞬间,后台需要并行处理活体检测、人脸比对等多重任务,同时还要控制离线推理的成本,并保证 RAG 场景的高频数据读取效率。

如果说金融的痛点是数据和安全决不能错,那游戏的痛点就是体验和帧率决不能卡。

游戏行业的「高并发」,核心要求则是「零抖动」。玩家关心的是画面是否酷炫,操作是否流畅。比如莉莉丝的爆款游戏《远光 84》,要支撑的是百万级玩家同时在线。这意味着单个核心就要承载 60-120 名玩家的高频网络同步,赛事场景更要求 60FPS 的稳定帧率。此外,游戏内 BOT 的 AI 寻路、弹道仿真与碰撞模拟等复杂计算,进一步加剧了算力压力。对玩家来说 0.1 秒的卡顿就是灾难,会直接影响游戏口碑。

而在传统的家电行业,用户的感知只是「冰箱连上了 WiFi」,但对家电企业来说,这背后远比「连个 WiFi」复杂太多倍。就比如海尔旗下的三翼鸟平台,如今已经服务近 1 亿家庭用户,连接超 5000 万台设备,日常需要支撑千万级设备网关的长连接,并实时处理海量设备状态上报。任何设备掉线、指令响应延迟,或是夜间流量高峰的稳定性问题,都会直接影响用户体验与留存。因此,高实时性、高稳定性、高并发应对能力成为了三翼鸟的核心诉求。

要如何应对 AI 时代千行百业、不同品牌的差异化需求?对每个公司都提供一套定制化方案显然并不现实。

真正的分野:

从「行业分类」到「场景特征」

今天我们可以清晰地看到:AI 时代的算力需求是高度分化的。如果继续沿用传统视角,按行业(如金融、游戏)或规模(如大企业、小企业)来划分企业,已经无法抓住问题的本质。

正如《IDC 新一代云基础设施实践报告》所指出的,更有效的方式是穿透「行业」和「公司」的表象,回归「业务场景」的算力特征。

从底层算力需求特征来看,这些复杂的需求和核心痛点可以归纳为如下三点:

1. 在线业务:以 Web、数据库、海尔的物联网平台、蚂蚁的实时认证为代表,核心痛点是低时延、高并发和高可用。

2. 离线业务:以数据处理、模型训练、小鹏的数据工程为代表,核心痛点是高吞吐、高效率和成本控制。

3. 游戏 / 量化交易业务:以莉莉丝的游戏服为代表,核心痛点是高主频、低抖动和复杂计算。

而英特尔与阿里云联合推出的高性能 CPU+ 云 + 行业化解决方案,正是针对这三类赛道的核心痛点,通过软硬协同实现了精准适配。

以微帧科技、蚂蚁 ZOLOZ、海尔三翼鸟为代表的在线业务,需要在支撑千万级实时请求、毫秒级响应的同时,保障全球服务质量一致性,以及海尔三翼鸟的设备长连接稳定性。

对应的解决方案,就要聚焦低时延硬件加速、高网络吞吐设计与智能弹性调度,以及全球节点部署,并平衡性能与成本。

蚂蚁 ZOLOZ 的在线实人认证场景需要应对高并发访问,于是他们选用了阿里云今年新推出的 ECS g9i 企业级云实例,其中搭载的至强 ®6 处理器发挥了关键作用:

至强 ®6 的 Chiplet 架构集成 3 个计算芯粒和 2 个 IO 单元芯粒,单个计算芯粒支持最多 32 个核,可将活体检测、人脸比对等并行任务在同一计算芯粒内高效分配处理,减少跨芯粒通信延迟,确保了 ZOLOZ 服务可以保持低于 100 毫秒的响应速度。

内置于至强 ® 处理器中的英特尔 ®AMX,专门针对矩阵运算等 AI 负载进行了优化,能够显著提升深度学习推理任务的效率。

得益于 AMX,在安全应用方面,蚂蚁数科基于「以 AI 对抗 AI」的创新理念构建的 ZOLOZ Anti-Deepfake 攻防互动系统,为 AI 推理带来最高达 3.3 倍的性能提升,并将每瓦性能提升高达 1.7 倍。

在 MaaS 层(模型即服务)ZOLOZ FinLLM 处理市场情绪分析、行情预测、风险评估、自动化客服等关键金融任务时,推理加速提升了 2.3 倍,推理消耗时长降低了 35%,算力成本降低了 72%。

而在 Pass 层,至强 ®6 处理器的 504MB 超大 L3 缓存有助于提升数据访问速度,满足低时延要求,在承载同等规模智能体服务时,所需服务器节点数量减少了 30%,金融机构由此可降低 25% 的硬件采购与运维成本。

在线视频领域的微帧科技同样受益于该方案。对于每月 15 亿分钟视频的实时 4K 编码、的低时延传输需求,至强 ®6 的 Chiplet 架构采用的 EMIB 多芯片互联桥接封装技术实现计算芯粒与 IO 芯粒间的高速数据交互,为视频编码数据的快速流转提供了保障。

同时,Chiplet 架构的计算芯粒集群可并行处理视频帧的不同片段,配合处理器中集成的 AVX-512 指令集和 AMX,可以优化 AI 降噪预处理等视频处理流程,使 4K 处理效率提升 35%。此外,针对其全球化业务需求,阿里云全球 29 个数据中心的就近部署有效降低跨区域传输延迟,配合 Spot 实例弹性策略,非实时任务成本降低 60%。

海尔三翼鸟的 AIoT 平台同样是在线业务的典型场景,但其需求则更多元,对于安防、厨房等关键场景要求毫秒级响应。ECS g9i 基于 CIPU 架构的软硬一体化设计发挥关键作用:其提供了 100Gbps 超高网络带宽,同等配置下设备网关侧连接能力提升 40%,使单台服务器的设备承载量从 10 万 + 提升至 14 万 +,并拓展至最高可满足千万级设备并发连接需求;此外,虚拟化损耗降至接近物理机水平,配合热升级技术使故障率下降 90%,夜间高峰也能稳定运行。而对于语音指令响应,也能把延迟从 200ms 优化至 120ms 内,月活跃用户留存率同比提升 15%,同时整体 IT 成本降低 20%。

常见需求的第二类——离线业务的效率与成本兼顾,则以小鹏为代表。解决方案需要聚焦大缓存设计、算力调度优化与硬件加速,提升效率并降低冗余成本。

至强 ®6 处理器提供的 12 通道 DDR5 内存(6400MT/s)为小鹏处理海量数据读写提供了高带宽保障;504MB 超大 L3 缓存使热数据命中率有效提升;英特尔 ®QAT 技术则将数据压缩 / 解压缩任务中的数据从 CPU 核心卸载并加速,并将历史上下文中的温、冷数据压缩后存入本地硬盘或者远端对象存储中,显著减少了存储空间占用和 IO 传输延迟,加速了数据预处理流程,降低了对高成本 GPU 计算周期的占用和等待。同时,实例双单路架构实现了故障自动切换,保障了 7x24 小时不间断的数据处理业务,避免研发进度延误。

此外,在自动驾驶数据预训练的相似度检索环节,小鹏需对百万起步的图像特征向量进行大批量的欧氏距离计算,以筛选特定交通场景(如环岛博弈、施工路段避让)的训练样本。ECS g9i 在硬件层面与 SIMD 指令集深度集成,从 AVX-512 到 AMX,都为这类向量 / 矩阵运算提供了强大的并行计算能力,使小鹏针对图片相似度比对、向量检索等场景开发算法的执行效率显著提升,无需重构代码即可复用优化成果(如将图像特征从 2D 转为 3D 空间坐标),贴合自动驾驶研发中快速迭代的需求。

相比小鹏离线任务对海量数据高效、低成本处理的需求,以莉莉丝游戏为代表游戏 / 量化交易业务则相对成本不那么敏感,但是对高稳定性 + 复杂计算 + 低抖动的要求巨大。

要支撑百万级玩家的并发交互、量化交易的高频策略计算与执行,微秒级计算延迟和算力波动都需要降到最低。解决方案主要聚焦高主频稳定性、并行计算优化与硬件级抗干扰设计。

为了支持莉莉丝《远光 84》的百万玩家同时在线、单核心 120 名玩家高频同步,以及 BOT AI 寻路、弹道仿真等复杂计算,ECS g9i 搭载的至强 ®6 处理器可以在 3.6GHz 全核睿频下保证频率抖动几乎微不可查,配合先进散热技术使服务器故障率降低,最大程度避免故障导致的业务中断和数据丢失;搭配最高 96 个性能核的并行计算能力与 AMX 引擎优化,对比上一代云实例,g9i 可以使卡顿次数减少 70%、平均帧时间缩短 30%,团战延迟极大降低。

变化的需求,

不变的多元算力与性能、性价比需求

当然,现实场景中的客户需求远比抽象的总结要更复杂,而市场数据则为这套联合解决方案的价值提供了最有力的证明:数据显示,上线不到 100 天,g9i 就已经获得了一万家客户。

进展如此神速的根本原因在于,英特尔与阿里云找到了 AI 时代企业算力需求的核心矛盾:如何在多元化算力中实现高效调度,并在性能与成本之间取得平衡。

而应对的核心,就在于高性能 CPU+CIPU 云架构的软硬协同组合。

英特尔 ® 至强 ®6 性能核处理器作为硬件核心,它采用 Intel 3 制程工艺,配备最高 128 个性能核、504MB L3 缓存,支持 12 通道高达 6400MT/s 的 DDR5 内存与 96 条 PCIe 5.0 通道、64 条 CXL 2.0 通道,相较上一代实现 40% 平均性能提升,更适合公有云工作负载。

阿里云 CIPU 则向下加速计算、存储、网络资源云化,向上通过飞天系统实现弹性调度与安全隔离。两者协同形成算力供给 - 调度 - 优化的全链路能力。

双剑合璧之后,实测数据显示,ECS g9i 实例相较基于第五代至强 ® 可扩展处理器的 g8i 实例,在线游戏性能提升 15%,数据库性能提升 17%,Web 应用性能提升 20%。

而成本侧,基于至强 ®6 处理器的阿里云 ECS g9i 实例,在相比上一代整体提升了 20% 性能表现的同时,目录价格却降低了 5%。并且得益于英特尔处理器代系间完善的软硬件生态,企业在升级至最新的 ECS g9i 时,其原有系统与应用无需进行任何改造即可平滑过渡,极大降低了升级门槛。

与此同时,针对差异化的用户场景,阿里云 + 英特尔也做了不同的针对性方案。

针对大部分企业的通用需求,推出了 U 系列入门级实例;为满足高内存带宽需求,推出了 r8e 增强型实例;另外针对科学计算、仿真等对单核睿频需求更高的客户,还推出了专门的 hf 系列实例满足他们的需求。

这种从共性需求的提取,到深入行业特性提供不同解决方案的方式,看起来并不「性感」,却弥足重要。

它揭示了 AI 转型中一个最朴素的道理:实现转型价值的关键,不在于追逐最前沿的模型,而取决于技术能否在具体场景中解决具体的问题,并实现成本与效率的平衡。

在这个过程中,英特尔的高性能通用型算力,解决了他们对多元算力、高性能、高性价比的共性需求;而阿里云则在这个基础上通过 CIPU 架构及弹性计算,将硬件能力转化为可以被精准调度、按需取用的云上资源,并针对不同行业、不同用户类型推出个性化的解决方案,让每一种独特需求都能被看见,被满足。

这种「软硬协同、深入场景」的能力,并非一蹴而就。自 2009 年以来,阿里云与英特尔的深度技术合作已历经十五载。双方的合作始终以挖掘极致性能和精准洞察客户需求为核心,深度贯穿至强 ® 处理器家族的历代产品迭代。正是这份日复一日的坚持,让英特尔 ® 至强 ® 处理器与阿里云弹性计算与成为了企业数字化转型中的可靠基石,始终为产业的升级与创新提供着坚实、可靠的底层支撑。

评论
大家都在看