
本文摘自《云栖战略参考》,这本刊物由阿里云与钛媒体联合策划。目的是为了把各个行业先行者的技术探索、业务实践呈现出来,与思考同样问题的"数智先行者"共同探讨、碰撞,希望这些内容能让你有所启发。
AI 时代,大模型和云计算的结合已经成为了行业的重要趋势,同时也是这个时代所有技术创新的重要驱动力。
一方面,所有的大模型训练离不开云计算,特别是随着模型的发展、模型的参数、模型的复杂度进一步提升,这更需要云计算提供强有力的支持。
另外,模型在服务层也为云计算提供了新的能力。阿里云在 2022 年首倡"Model as a Service"(模型即服务),今天这个概念已经成为大家的共识,也成为云计算不可分割的一部分。
几年间,阿里云已经转变成为全球少数大模型与云计算都全栈自研且技术领先的全栈人工智能提供商。大模型方面,通义模型家族也受到了全球开发者的喜爱,成为了今天全球最大的模型家族。云计算方面,通过多年努力,阿里云已经成为全球领先、亚太第一的云计算公司。而这两方面更是相辅相成的:通过一系列云计算架构的升级,阿里云以 IaaS 层、PaaS 层、MaaS 层的三层结构通过软硬件一体的联合优化,才有今天通义大模型不断的进化,才有阿里云在全栈人工智能技术的领先地位。具体来看,阿里云全栈的技术创新也将围绕模型、基础设施和AI应用开发的三个维度展开。
构建强大、高效、普惠的 AI 大脑
在通往超级人工智能(ASI)的蓝图中,大模型依然是一切的基石。
阿里巴巴集团 CEO 吴泳铭认为,通往 ASI 之路将经历三个阶段,其中第一阶段是"智能涌现",特征是"学习人"。这也是过去几年的主线,AI 逐渐具备了进入真实世界、解决真实问题、创造更大价值的可能性。

过去两年,通义家族模型能力不断提升,不仅成为全球第一开源模型,也是中国企业选择最多的模型。截至 2025 年 9 月,通义大模型开源 300 余个模型,覆盖不同大小的"全尺寸"及语言、图像、语音、视频等"全模态",全球下载量突破 6 亿次,全球衍生模型 17 万个,稳居全球第一。超 100 万家客户接入通义大模型,国际调研机构沙利文报告显示,2025 年上半年,中国企业级大模型调用市场中通义大模型占比第一。

在"大模型是下一代的操作系统"的判断下,通义大模型家族继续发力,在云栖大会上"七连发":不仅公布了 6 款模型上新,还有 1 个全新品牌发布,覆盖文本、视觉、语音、视频、代码、图像全场景,在模型智能水平、Agent 工具调用、Coding 能力、深度推理、多模态乃至模型架构等方面实现全面突破。
这些能力的突破都在围绕一个核心进行——在当前通往 ASI 的第二个阶段"自主行动"阶段中,如何让 AI 具备在真实世界中行动的能力?吴泳铭认为跨越的关键, 首先是大模型具备 Tool Use 能力,有能力连接所有数字化工具,完成真实世界任务;其次,大模型 Coding 能力的提升,可以帮助人类解决更复杂的问题,并将更多场景数字化。当 AI 具备了这些能力,人们只需要用自然语言与 AI 进行交流,就可以让 AI 自行编写逻辑、调用工具、搭建系统,完成数字世界的几乎所有工作,并通过数字化接口来操作所有物理设备。
在通义家族中,旗舰模型 Qwen3-Max 可谓是能力最强、规模最大的"全能型选手",尤其擅长处理复杂实际问题。其预训练数据量高达 36T tokens,总参数超过万亿;性能在全球权威评测中已超越 GPT-5、 Claude Opus 4 等顶尖模型,跻身世界前三。尤为重要的是,它在代表 Agent 核心能力的工具调用能力和 Coding 能力评测中均位列全球第一梯队。
同时,"降本增效"的高手——下一代基础模型架构 Qwen3-Next 及系列模型也正式发布,通过一系列前沿的工程技术,在保持卓越性能的同时,大幅提升了训练和推理的效率。该模型总参数 80B,但仅需激活 3B 参数,性能便可媲美 235B 的旗舰模型。通过混合注意力、高稀疏度 MoE 等创新技术,其训练成本相较 Qwen3-32B 锐减超过 90%,长文本推理吞吐量提升 10 倍以上。这标志着阿里云不仅在追求模型的强大,更在探索如何让这份强大变得高效和普惠。
除了基础模型的更新迭代,在专项模型上阿里云也一口气发布了多个更新和升级。这些专项模型各有所长,但一个共同特点是为 AI 与真实世界交互提供了强有力的技术支撑。
发展大模型 Coding 能力是通往 AGI 的必经之路。针对高效处理编程任务,编程模型 Qwen3-Coder 联合多个顶尖代码系统进行训练,代码生成、补全和修复能力更强、速度更快、安全性更高。该模型此前就广受开发者和企业好评,开源后调用量曾在知名模型调用平台 OpenRouter 上激增 1474%,位列全球第二。
在 AI 连接并操作真实世界的关键一步——视觉智能体操作和复杂场景理解方面,视觉理解模型 Qwen3-VL 增强了复杂的空间理解能力,能真正去理解现实中空间的实际情况,实现 3D 基础训练,也为具身智能实现提供了坚实的基础。
全模态模型 Qwen3-Omni 则成功解决了以往多模态模型中常见的"模态性能权衡"难题,首次实现音、视、文多模态混合训练而各项能力不降反升,能像人类一样 "听说写",为车载、智能穿戴等设备提供高质量、低延时的交互。
多模态生成模型通义万相 Wan2.5 突破性实现了原生音画同步的视频生成,可生成匹配人声、音效和背景音乐的视频,时长提升至 10 秒,进一步降低了高质量视频创作的门槛。
全新发布的语音大模型家族通义百聆,包括语音识别大模型 Fun-ASR、语音合成大模型 Fun-CosyVoice,为 AI 的"听说"能力提供了专业级的支撑。Fun-ASR 基于数千万小时真实语音数据训练而成,具备强大的上下文理解能力与行业适应性;Fun-CosyVoice 可提供上百种预制音色,可以用于客服、销售、直播、电商、消费电子、有声书、儿童娱乐等场景。
整体来看,视觉理解模型的升级,让 AI 不仅能"看懂" 图像,更能直接操作图形界面;全模态模型 Qwen3- Omni 的亮相,则让原来需要多个模型配合才能实现的 AI 与物理世界交互的能力,可以更高效低延时地在一个模型内实现,提高 AI 与真实世界交互的能力。这些升级,完美呼应了 ASI 蓝图中"连接真实世界全量数据"的核心要求,是 AI 从虚拟走向现实的必要前提。
围绕超级智能的系统性模型升级,意味着通义家族不再仅仅是一系列独立的模型,而是正在构筑一个越来越完 备、强大且高效的"大模型操作系统"。这将为 Agent 的爆发提供核心引擎,更为通往 ASI 的"自我迭代"阶段奠定最关键的能力基石。
AI 基础设施全栈升级
真正的"智算引擎"
没有坚实的基础设施,再强的模型也难以落地。在这一逻辑下,阿里云持续强化从服务器、网络、存储到智算集群的 AI Infra 布局,打造支撑万亿参数模型与复杂智能体系统的算力引擎。
为了支撑当下高性能 AI 芯片的计算需求,阿里云推出了新一代磐久超节点服务器,在一个机柜中可容纳高达 128 颗 AI 芯片。这背后是一整套针对高密度算力的系统级工程创新:350 千瓦的单柜功率、精细化的液冷系统,以及高可靠供电设计,确保在高热负载、高并发计算环境下依然保持稳定运行。
在硬件兼容性上,磐久服务器支持产业主流的开放架构,可灵活兼容不同厂商的 AI 芯片与 Scale-up 协议,实现从单节点到超节点的高效组装。这种"模块化 + 开放式"的设计,使 AI 算力的部署与扩展更加灵活,为后续的模型训练、推理和强化学习提供了坚实的算力基础。
随着模型规模迈向万亿参数、集群规模扩展到"万卡" 甚至"十万卡"级别,网络性能成为 AI 集群效率的生命线。阿里云此次推出的 HPN 8.0 高性能网络架构,是全球首批实现"训推一体"设计的 AI 网络。
在硬件层面,HPN 8.0 通过自研交换机、光模块、网卡等核心组件,实现从 7.0 版本的万卡规模跃升至数十万卡互联。配合自研的 RDMA 通信协议和优化的通信库,极大减少了大模型训练中的通信延迟与带宽瓶颈,使得 GPU 在大规模分布式训练中能实现更高的计算利用率。
在系统层面,HPN 8.0 已支持跨数据中心、跨可用区 (AZ)、跨 Region 的高带宽网络架构,真正实现了智算资源的"跨域协同"。无论是预训练、推理还是强化学习,都能在超大规模环境中保持通信高效与算力弹性。
AI 不仅"算得快",还要"读得快"、"写得快"。CPFS 面向 AI 训练与推理场景进行了深度优化,单客户端吞吐量高达 40GB/s,性能相比传统方案提 升 60%。针对业界普遍存在的"小文件 I/O 瓶颈", CPFS 实现了百万级IOPS 的卓越性能,显著提升了数据加载与模型训练效率。
更关键的是,阿里云引入了智能分层存储机制:热数据 驻留 CPFS 冷数据自动转移至 OSS。系统可自动感知访问频次,进行冷热分层与成本优化。这意味着开发者可以在保持高性能的同时,将存储成本降到极致。
进入多模态时代,AI 模型需要同时处理文本、图像、音频、视频等多种数据类型。为此,OSS 进行了全新升级, 全面支持向量化数据的存储与索引。通过 embedding 向量桶(Vector Bucket)机制,OSS 能够实现多模态数据的高效查询、比对与检索,成为多模态 AI 的重要"数据底座"。
当服务器、网络、存储三者完成深度融合,真正的"智算引擎"便应运而生。阿里云打造的灵骏智算集群,已经成为中国 AI 产业的重要支撑平台。灵骏不仅具备超大规模和异构算力的支持能力,还在稳定性和运维智能化方面达到了国际领先水准。
灵骏支持容器、虚机、裸金属等多种算力形态,灵活适配不同训练需求。同时,其智能化监测系统可实现 98% 以上的故障发现率,通过自动化容错、热迁移与调度机制,确保大规模集群在复杂环境下的高可用性。
在体系架构上,灵骏实现了存算分离与极致扩展,通过灵活的资源调度策略,能够根据任务需求在不同集群间动态调配计算与存储资源。这使得模型从训练到部署的全生命周期更加高效、稳定。
多模态智能数据底座
高质量数据,决定大模型性能的边界,也是 AI 进化的关键。
构建面向 Agentic AI 时代的多模态智能数据底座至关重要,高效、智能的多模数据管理已成为企业提升市场竞争力的关键。针对这一目标,阿里云的大数据和数据库进行全面升级。
阿里云瑶池发布"基于湖仓库一体化"的多模数据智能管理平台,助力企业用户进一步简化数据管理流程,提升业务开发与部署效率,降低 AI 应用落地成本。
该平台采用湖仓库一体化设计,通过湖库(Lakebase) 和湖仓(Lakehouse)融合架构,打破业务数据孤岛。数据可在数据库、数据仓库、数据湖之间无缝流转,极大地提升了数据利用率,降低使用成本。基于瑶池数据库产品引擎(云原生数据库 PolarDB、云原生数据 仓库 AnalyticDB、云原生多模数据库 Lindorm、云数据库 RDS 等),此次发布的新平台融合了 OLTP 和 OLAP,兼具数据湖的灵活性、数据仓库的分析能力和数据库的事务处理能力,构建面向 AI 场景的统一多模态数据底座。
瑶池旗下的多模数据管理平台 DMS:OneMeta+OneOps, OneMeta 提供支持 40 多种数据源的多模态 Catalog,构建基础元数据层、业务知识层和 AI 就绪服务层;OneOps 提供数据工作流自动化与编排,能够大幅提升多模态的开发效率,支持百万任务调度规模,加速企业级 AI 应用构建。目前,DMS 已服务超过 10 万 + 企业客户,其中包括富途、天财商龙、七猫等行业领先者。DMS 助力这些客户将多模开发效率提高 2 倍以上,数据交付效率最高提升 5 倍,同时降低 90% 安全合规风险。
阿里云大数据平台也面向 AI 产品进行全新升级,全面支持 AI 计算和服务。
其中,阿里云 OpenLake 同样进行了全方位升级,满足客户面对物理世界全模态数据时所需的一体化数据存储和管理系统。
湖仓目录服务 DLF 3.0 拓展了全模态数据支持,其作为湖仓存储层统一管理核心,将存储格式从传统结构化数据,拓展至全模态数据场景,支持面向 AI 场景的 Lance、 Iceberg 以及文件数据、格式化表格数据等全类型。
计算生态方面,OpenLake 通过多引擎平权联合计算架构,可实现数据无需搬家、多引擎协同处理,湖仓存储层(DLF+Managed Storage)作为单一份数据源,向上对接全链路 Data + AI 引擎。OpenLake 同时推出 OpenLake Studio 多模态 Data + AI 一体化开发平台,实现一站式数据开发 - 治理 - 运维闭环,降低多模态 Data + AI 的开发门槛。
大数据平台 MaxCompute、Hologres、EMR、Flink 等产品数据处理全面支持 AI Function,将 AI 能力深度集成至传统数据处理流程。在 SQL 或 Python 作业中,调用 AI 模型如同调用普通函数,实现数据处理与 AI 推理的无缝融合。MaxFrame 推出面向 AI 场景的新一代原生分布式 Python 引擎 DPE,数据处理性价比提升 1 倍,支持数据预处理,ML 训练推理,异构资源计算,Python 原生 UDF 以及 AI Function 等计算场景。
各行各业都广泛需要多模分析检索,大数据平台致力于打造AI应用的知识检索系统,让数据发挥更大的价值。 EMR-Starrocks 全新支持全文检索,OpenSearch GPU 实例驱动向量索引构建,整体性价比提升 10 倍, Milvus、ElasticSearch、Hologres 支持向量 + 全文混合检索。
企业对多模数据处理和加工需求的指数级增长,让数据库所承载的用户业务类型愈加复杂。数据处理亟需引入各类AI能力,让原本复杂的企业数据分析及洞察过程,变得像日常对话一样简单高效,实现"越用越聪明,越用越好用"。
在此背景下,云栖大会上发布的"瑶池数据库 ApsaraDB Agent 智能顾问"和一系列全新产品能力,通过与大模型深度融合,大幅提升企业内数据场景(开发、分析、洞察等环节)的使用效率,降低技术门槛。以 Data Agent for Analytics 为例,它依托通义大模型,能够精准理解用户意图,自动生成并执行数据分析计划,最终输出图文并茂的报告。
大数据平台 DataWorks、MaxCompute、Hologres、 EMR 等产品推出通过自然语言交互即可实现数据开发、运维等操作的智能化交互式产品能力,发布 Data Agent 组件,全面实现 Agentic 化的大数据分析、开发与治理。
阿里云不断追求技术的创新,为用户提供极致的性能与高性价比的数据服务。此次云栖大会上又发布了多项突破 性成果。其中,Hologres 发布全新向量索引 HGraph,登 顶 Vector DB Bench 性价比榜单 QPS、Recall、 Latency、Load 四项第一,Milvus 相比同类型产品性价比提升 4 倍;云原生数据库 PolarDB 全球首创基于 CXL Switch 的分布式内存池技术,网络时延从 RDMA 的微秒级降低至纳秒级,内存单价降低 30%;开源大数据平台 EMR 的表现上,TPC-H10T starrocks 相比前榜首性能 (QphH) 提升 111%,TPCDS 100TSpark 相比前榜首性价比 (Price/kQphDs) 提升 500%。
训练推理全流程优化
在 AI 加速重塑千行百业的浪潮中,大模型的落地路径正持续演进,逐步从通用能力构建走向深度场景化应用。阿里云通过预训练、后训练、推理全流程优化,让大模型更进一步与业务场景融合。
大模型采用 MoE 架构已经成为重要的趋势,但是 MoE 架构相对复杂,训练成本与效率瓶颈是核心卡点。随着参数规模的增大,如何提升算力的利用率成了支持模型快速迭代的生命线。
针对 MoE 架构模型,人工智能平台 PAI 创新推出专用训练引擎 paiMoE,采用统一调度机制、自适应计算通信掩盖、EP 计算负载均衡和计算显存分离式并行等优化手段,有效解决工作负载不同、稀疏 MoE 通信占比高等问题,在 Qwen3 训练过程中实现端到端加速比提效 3 倍,训练 MFU 超过 61%。
目前,paiMoE引擎两项核心技术Tangram 和 ChunkFlow 已在 Qwen 全系模型的 CPT/SFT 阶段作 为默认方案,Tangram 支持多样化细粒度 MoE 训练任 务,一套机制支持不同的计算、通信、显存与负载均衡 需求。ChunkFlow 针对处理变长和超长序列数据的性能 问题,提出了以 Chunk 为中心的训练机制。变长序列数 据重新组织为等长 Chunk 并且结合调度,有效提升训练 效率,研究成果被 ICML 2025 收录。
针对 DiT 架构模型,PAI 推出训练推理一体化加速引擎 paiFuser,通过计算图优化、显存复用、通信压缩、动态调度等手段,显著降低资源消耗,提升系统吞吐。在 8 卡并行推理场景下,视频生成耗时最高减少 80% 以上,在保障画质前提下实现"分钟级"甚至"秒级" 输出,为短视频生产、沉浸式 VR、AIGC 创意工具等时效敏感型业务提供坚实底座。
在推理层,通过大规模 EP、PD/AF 分离、权重优化、LLM 智能路由在内的全链路优化,实现推理效率显著提升:推理吞吐 TPS 增加 71%,时延 TPOT 降低 70.6%,扩容时长降低 97.6%。
此外,PAI-EAS 重磅推出企业级 EP 解决方案,助力千亿参数 MoE 模型以更低的成本、更高的效率服务于线上业务。PAI-EAS 提供分布式推理能力,通过多机 Prefill-Decode-EP 分离架构,结合 LLM 智能路由和 MoE 分布式推理调度引擎 Llumnix,能显著提升推理速度和资源利用率以降低模型使用成本,做到首 Token 生成响应时间降低 92%,端到端服务吞吐提升超过 5 倍。 同时,PAI-ModelGallery 支持包含 Qwen、 DeepSeek 在内的 300 多个模型的零代码一键后训练、评测、部署。
近两年,行业焦点从追求参数和通用能力的大模型预训练,逐渐转向更具落地价值的后训练阶段。Qwen 等高性能开源大模型以强大基础能力为企业提供了理想起点,再结合行业高质量数据开展后训练,企业既能精准解决业务问题,还能突破通用模型瓶颈、实现垂直领域的专精。
构建从预训练到后训练的完整演进路径,正成为企业打造专属 AI 大脑的核心,加速千行百业智能化转型。行业也已达成共识:只有经过深度的"后训练",让模型理解行业语境、熟悉业务流程,它才能从"能用" 走向"好用"。
后训练不仅关乎算法层的优化,更依赖底层算力、平台能力与应用层协同,确保全链路的可行性与稳定性,用户需要的是一个安全稳定、性能卓越且功能全面的工程化平台,以支撑后训练的数据、训练、部署的全流程。
阿里云依托人工智能平台 PAI、云原生大数据计算服务 MaxCompute 等系列产品,以稳定、高效、全能的方案优势,全面打通从数据预处理、模型训练到推理部署的全链路,助力企业高效构建具备领域深度的 Agentic AI 应用。大模型后训练解决方案将企业从繁重的底层工程中解放出来,专注于业务创新。
同时,阿里云还推出了灵活、易用、高效的大规模 强化学习训练框架 PAI-Chatlearn,支持 RLHF、 DPO、GRPO 等多种先进的 Alignment 训练算法,支持任意模型的后训练任务快速配置。实验数据表明,Qwen3-30B-A3B 模型在相同的硬件环境下,PAI- ChatLearn 相较于开源的框架来说,训练的吞吐基本上提升 2 倍以上。
围绕"数据 - 训练 - 推理 -AI 应用"的全生命周期,阿里云大数据 AI 平台为后训练提供端到端支撑,保障从基模选择、数据准备、模型训练到部署上线的每一个环节都能高效运行且无缝对接。
打通模型应用最后一公里
在大模型技术飞速发展的今天,企业普遍面临从"拥有大模型"到"用好大模型"的挑战。行业需求已从追求通用模型的"全能",转向在特定业务场景中实现高精度、低成本、易部署的智能化落地。市场亟需能够降低技术复杂性、打通从模型到业务最后一公里的解决方案。
面向 AI Agent 进行开发,正成为当前的关键解法,这也是此次云栖大会上阿里云整体技术架构中的重要组成部分。
但 Agent 开发并非独立环节,而是贯穿前述所有技术能力,从发挥大模型能力,到结合各式各样的数据源、抽象本地知识和概念、打通各种工具和资源,而且要突破预定义的静态流程编排,具备自动化、智能化分解任务的能力,以及长期记忆 ......Agent 开发中还有大量工作需要探索。
这个过程中,作为全链路大模型服务与 Agent 应用开发平台,阿里云百炼从规划决策、信息管理、工具调用各个方面,为开发者们提供了全面支持,成为加速 AI 渗透和规模化应用的关键。具体来看,平台上形成了 "1+2+7"的企业级 Agent 体系:一套模型服务、两种开发模式、七大关键能力。
其中,两种开发模式包括高代码到低代码的全方位支持。云栖大会上发布了全新的 Agent 开发框架 ModelStudio-ADK,让专业开发者能高效构建具备自主决策、多轮反思能力的复杂 Agent;使用 ModelStudio-ADK,1 个小时就能轻松开发一个能生成深度报告的 Deep Research 项目。
此外,持续升级的低代码平台 ModelStudio-ADP,则让业务人员也能快速创建满足特定场景需求的智能体。该平台已广泛应用于金融、教育和电商等领域企业,目前,阿里云百炼平台已有超 20 万开发者开发了 80 多万个 Agent。据介绍,网商银行基于 ModelStudio- ADP 开发了贷款审核应用,支持合同、发票、营业执照等 26 种凭证,以及店面门头、餐饮厨房、就餐区、货架商品等超过 400 种细粒度物体的精准识别,准确率超 95%,其任务处理时间从原来的 3 小时优化至 5 分钟内。
双轨并行的设计实际是给企业"分阶段上车"的多样化选择:早期可以用 ADP 快速试错,找到有效的应用场景;一旦验证有效,就能无缝切换到 ADK,支撑深度定制和规模化运行。
这样既降低了前期的探索成本,又避免了"重构"或"二 次开发"的重复投入,保证了业务连续性。对那些本身缺乏强大研发团队的传统企业而言,这种双轨架构尤其友好——他们既能像互联网公司一样快速试验,又能在规模化阶段享受到成熟平台的稳定性和扩展性。
在组件层面,面向 Agent 开发和部署所需的各类组件,阿里云百炼集成了工具连接 MCP Server、多模数据融合 RAG Server、沙箱工具 Sandbox Server、智能记忆存取 Memory Server 以及支付订阅服务 Pay Server 等 7 大企业级能力。以 Pay Server 为例,该服务由阿里云百炼和支付宝联合首发推出,是业界首个为企业级 Agent 提供专业商业化支付通道的服务。目前,阿里云百炼首批上线了基于 Model Studio-ADK 开发的 DeepResearch、Agentic-RAG、Computer- Use Agent 等 Agent 应用,用户可免费在线体验或下载代码进行二次开发。
围绕 Agent 的运行,阿里云还提供了无影 AgentBay 等一系列企业级组件,解决了 Agent 在动态算力调用、安全沙箱、长期记忆等方面的核心难题。这相当于为 Agent 的规模化应用,铺设了完善的"高速公路网"。
整体来看,过去两年,百炼模型服务的能力得到了全方位的发展。阿里云凭借其全栈布局,致力于将大模型开发部署变得像"搭积木"一样便捷,其通过整合底层算力、模型服务与开发平台,为企业提供了一条从模型选型、精调到集成的清晰路径,让 AI 应用真正变得触手可及。
在模型服务层,阿里云百炼不仅已经完成了全球的部署,在中国栈、国际栈提供了多种多样的模型服务;还提供极致的性能,很多模型的 Token 生成速度能够达 到 100TPS,能够完成大家各种各样的业务需求。不管是在性能的 SOA、可用的 SOA 等方面都处于行业领先水平。
实现极致化的 AI 时代模型服务也需要高吞吐的能力,能够支持高并发的业务需求,真正让用户实现随时可用、快速调用。因此,阿里云百炼提供了各种跨链配置,用户可以根据业务的需求,对效果、吞吐、弹性、延迟、成本的诸多方面进行优化组合。
在产品方面,阿里云百炼也积极推出了在线推理、Batch(批处理)的产品,以更具性价比的方式帮助用户完成业务需求。
在过去 12 个月里,百炼模型服务调用量增加了 15 倍。一个繁荣的智能体生态正在阿里云上形成:超过 20 万开发者在此构建了逾 80 万个 Agent,它们正作为一股新质生产力,深度重塑千行百业。
这股浪潮正席卷各大核心行业。在金融领域,通义大模型快速渗透,已覆盖九成国家级及大型国有银行、全部 12 家股份制银行和排名前十的财险公司。
在工业制造等复杂场景中,Agent 的价值同样得到了验证。三一重工的"维修助手 Agent"显著提升了故障排查效率;西门子的工业智能系统更是能自主完成订单调度、生产等复杂任务。
可以看到,Agent 正以前所未有的深度和广度渗透。而阿里云所提供的,正是这场变革背后的核心引擎:从底层的开发框架、基础设施,到上层的通义系列模型,共同构成了这股新质生产力最关键的赋能者。
基础模型是 Agent 的大脑,为其提升规划和决策能力;云计算作为资源和容器为 Agent 提供行动力;通过工具与真实世界交互,Agent 获取反馈,并自我进化。在 "自主行动"的 Agentic AI 时代,阿里云不仅让这条链路上每一个环节的能力足够强,还正在不断进行系统化创新和提升,走向下一阶段——ASI
本文摘自《云栖战略参考》总第20期
扫码查看最新杂志
↓↓


登录后才可以发布评论哦
打开小程序可以发布评论哦