腾讯科技 58分钟前
亚马逊技术大会强势来袭:自研芯片性能暴增4.4倍,首创定制模型概念
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

划重点:

亚马逊推出最新人工智能芯片 Trainium 3 采用 3nm 工艺,推理能效提升 4 倍,成本最高降 50%,单芯片 2.52 PFLOPs;

Trainium 4 原生支持 NVLink Fusion,可与 NVIDIA GPU 混插,训练推理自由切换;

Nova 2 家族推出 Lite/Pro/Sonic/Omni 四款,100 万 token,对标 GPT-5/Claude 4.5,全面多模态;

Nova Forge 仅 10 万美元 / 年起即可全阶段插入私有数据,训练深度领域专属模型。

当地时间 12 月 2 日,亚马逊云计算部门 AWS 的年度技术盛会 re:Invent 2025 在美国拉斯维加斯正式开幕。

大会首日,AWS 一口气发布了 Trainium 3 自研 AI 芯片、Trainium 4 路线图、AI 工厂(AI Factory)主权云服务、Nova 2 系列四大基础模型、Nova Forge 开放式模型定制平台以及 Bedrock AgentCore 智能体工程化平台等一系列产品,系统构建起 " 芯片—模型—智能体—混合云 " 的全栈 AI 生态。

这场全球最具影响力的云与 AI 盛会恰逢人工智能产业从技术爆发期迈向规模化应用期的关键节点。头部企业持续加码算力,传统行业对 AI 的需求已从 " 尝鲜式 " 试点转向 " 刚需式 " 深度应用,数据主权、算力成本、生态兼容性等现实难题日益凸显。AWS 此次没有进行零散的产品迭代,而是推出深度融合的全栈 AI 基础设施与服务体系,以成本优化、生态开放、合规适配三大核心优势,效仿谷歌直击行业痛点,强势抢占全球 AI 算力、模型与云服务市场的战略制高点。

AWS 首席执行官马特 · 加尔曼(Matt Garman)在开幕主题演讲中做出重磅判断:" 智能体 AI(Agentic AI)将成为企业真正释放 AI 价值的关键,未来贡献占比将达 80% 至 90%。" 他指出,当前企业 AI 应用普遍面临碎片化困境:算力成本高企、模型难以深度适配业务、智能体部署缺乏标准化工具,导致技术与商业价值之间存在巨大鸿沟。

此次全线新品正是围绕 " 智能体优先 " 这一核心愿景打造的全链路战略部署,标志着 AWS 正式完成从传统云服务提供商向智能体 AI 生态构建者的转型,致力于用全栈能力彻底打通 AI 落地的 " 最后一公里 "。

01. 硬件突破:Trainium 3 性能提升 4.4 倍,未来将兼容英伟达 NVLink Fusion 技术

Trainium 3 芯片

作为 AI 生态最底层的基石,AWS 在定制芯片领域的深耕已持续多年。目前其定制芯片业务规模已达数十亿美元,Trainium 系列芯片全球部署总量突破 100 万张,成为支撑超大规模 AI 计算的核心支柱,在全球云厂商自研芯片中仅次于谷歌 TPU。

此次发布的 Trainium 3 芯片采用台积电 3 纳米制程工艺,专为 " 推理主导 " 的时代量身打造。随着大模型训练逐步向少数头部玩家集中,广大中小企业的核心需求转向低成本、高效率的推理部署,能耗与成本成为最大瓶颈,Trainium 3 精准切中这一市场痛点,实现性能与成本的双重颠覆。

相较上一代,Trainium 3 原始性能提升 4.4 倍,性能功耗比提升 4 倍,整体能源效率提升 40%,直接破解了大规模数据中心在能耗与成本上的难题。实测数据显示,部署主流开源模型(如 GPT-OSS)时,单芯片吞吐量提升 3 倍,响应延迟缩短 4 倍。

AWS 表示,Trainium 3 有望将 AI 模型全生命周期(训练 + 推理)成本整体降低 50%,在当前算力市场极具竞争力。在英伟达 GPU 长期占据绝对主导、价格居高不下的背景下,Trainium 3 为企业提供了真正可落地的性价比替代方案。

架构层面,Trainium 3 单芯片提供 2.52 PFLOPs(FP8)算力,支持 FP32、BF16、MXFP8 及新增 MXFP4 等多种精度格式。为解决大语言模型最突出的内存瓶颈,该芯片将 HBM3e 内存容量提升至 144GB、带宽提升至 4.9TB/s,同时强化结构化稀疏性和微缩放硬件支持,进一步优化大语言模型训练与推理效率。

得益于全新一代 Neuron Fabric 互联技术,单台 Trn3 UltraServer 可集成 144 张芯片,总算力达 362 FP8 PFLOPs;通过 EC2 UltraClusters 3.0 架构,可扩展至最高 100 万张芯片的超级集群,规模较上一代提升 10 倍,已为 Anthropic 的 "Project Rainier" 项目提供核心算力支撑(目前已部署 50 万张 Trainium 2,计划年底前扩容至 100 万张)。Karakuri、Metagenomi、NetoAI 等客户反馈,使用 Trainium 3 后训练与推理成本最高降低 50%,充分验证了其在真实生产环境中的成本优势。

AWS 提前披露 Trainium 4 关键特性

更具深远影响的是,AWS 提前披露了 Trainium 4 的关键特性:将原生支持英伟达 NVLink Fusion 高速互联技术,彻底打破云厂商自研芯片长期以来的 " 封闭生态 " 惯例,展现出 " 共存并竞争 " 的务实策略。目前全球约 80% 的 AI 应用基于英伟达 CUDA 生态开发,迁移成本极高。兼容 NVLink Fusion 后,企业可在同一集群内灵活混搭 Trainium 与英伟达 GPU,按需分配任务(如训练用 GPU、推理用 Trainium),大幅降低迁移门槛。

Trainium 4 预计 FP8 算力提升 3 倍、FP4 算力提升 6 倍,内存带宽与容量分别提升 4 倍和 2 倍,并将与 Graviton CPU、EFA 网络及英伟达 MGX 机架深度融合。这一 " 以开放换市场 " 的举措,被业界视为 Trainium 系列真正实现规模化普及的转折点。

02. 基础设施延伸:AI 工厂落地主权云,混合部署一举破解全球合规难题

随着 AI 深入政府、金融、医疗等高敏感行业,数据主权与合规性已成为全球性瓶颈。欧盟 GDPR、美国国防与医疗安全审查等政策使得纯公有云难以满足要求。AWS 此次推出 AI 工厂服务,将全栈 AI 能力从公有云完整延伸至客户本地或指定区域,快速构建功能等同于私有 AWS 区域的专属环境。

通过 AI 工厂,客户可实现数据本地化处理与存储,100% 满足数据主权与行业合规要求,AWS 负责基础设施全生命周期的部署、运维与升级,彻底解决传统私有云 " 部署难、维护贵 " 的问题。结合 Trainium 芯片、英伟达加速卡、高性能网络以及 Bedrock、SageMaker 等全套服务,AI 工厂将私有云部署周期从数年缩短至数月。AWS 同时宣布未来几年投资 500 亿美元建设美国政府专用高性能计算与 AI 数据中心,投入规模远超同行。

全球落地方面,AWS 已同沙特 Humain 公司合作建设部署 15 万张 AI 芯片的 "AI Zone",基于 GB300 GPU 实现多吉瓦级扩展,服务智慧城市、医疗健康等领域;AWS 欧洲主权云将正式上线,数据中心位于欧盟境内,由欧盟本地团队独立运营。客户可按需选择 Trainium 或英伟达最新 Grace Blackwell、Vera Rubin 平台,实现敏感任务本地化、非敏感任务公有云弹性扩展的最优平衡。

03. 模型革新:Nova 2 家族全面对标行业顶尖,Nova Forge 开创 " 开放式深度定制 " 新范式

在模型层,AWS 此前的表现相对低调,市场份额多被 OpenAI、Anthropic 等专业模型厂商占据。此次升级的 Nova 2 模型家族显然是 AWS 发力模型市场的关键举措,推出 Lite、Pro、Sonic、Omni 四款细分产品,全面覆盖推理、多模态、对话 AI 与代码生成等核心场景,直接对标行业头部模型。

Nova 2 Lite 的基准测试数据

其中,Nova 2 Lite 作为高性价比推理模型,支持文本、图像、视频等多格式输入,上下文窗口达 100 万 token,性能对标 Anthropic Claude 4.5 Haiku、OpenAI GPT-5 Mini 等主流高效模型,主要面向中小企业的轻量化推理需求。

Nova 2 Pro 的基准测试数据

Nova 2 Pro 则瞄准复杂任务处理,推理能力媲美甚至超越 OpenAI GPT-5、Google Gemini 3.0 Pro 等旗舰模型,特别适用于智能体相关任务。其强大的逻辑推理与工具调用能力,正是智能体完成复杂业务流程的核心,该模型目前已向 Nova Forge 早期客户开放预览。​

Nova 2 Sonic 专注于实时多语言对话场景,100 万 token 的上下文窗口可容纳 7.5 万行代码或 1500 页文本,支持 20 余种语言的实时转译与对话,瞄准客服、跨境沟通等场景。

Nova 2 Omni 作为全模态模型,能够同时处理图像、音频、视频和文本输入,并通过模拟推理生成多样化输出。例如,该模型可直接分析一段工业生产视频,识别设备故障并生成维修方案,为长文档、视频等复杂媒体处理提供一体化解决方案,填补了 AWS 在全模态领域的短板。​

Nova Forge 服务

AWS 此次发布的 Nova Forge 服务颠覆了传统模型定制模式。传统模型定制多采用 " 微调 " 方式,在预训练完成的模型基础上,用企业数据进行二次训练。这种方式难以让企业专有知识深度融入模型底层,定制效果有限,且成本高昂。动辄数百万美元的定制费用让中小企业望而却步。

Nova Forge 允许企业支付 10 万美元年费,不含工程师协助费用,在模型预训练、中期训练和后训练三个关键阶段接入 Nova 模型的检查点,将自有数据深度嵌入训练过程,打造具备专业领域知识的 " 定制模型 "。这种模式大幅降低了深度定制的门槛,同时让模型更贴合企业业务逻辑。​

实际应用中,Reddit 利用该服务打造的 "Reddit 专家模型 ",在平台敏感内容审核方面表现远超通用大语言模型。该模型能够精准识别 Reddit 社区特有的 slang 用语、梗文化相关的违规内容,误判率降低 30%。生物技术公司 Nimbus Therapeutics 将药物研发数据嵌入 Nova 模型,构建的定制模型在分子结构预测、临床试验数据分析等任务中,效率较通用模型提升 40%。Booking.com 则通过定制模型优化酒店推荐算法,用户转化率提升 15%。

相较于投入数亿美元从零构建模型,Nova Forge 为企业提供了更经济高效的专业化路径,目前已支持 Nova 2 Lite,并计划扩展至 Pro 和 Omni 模型。

04. 应用落地:Bedrock AgentCore 破解工程化难题,智能体加速企业部署

智能体 AI 虽被寄予厚望,但企业部署过程中面临的工程化难题不容忽视。安全合规风险、可靠性难以评估、长期记忆能力不足等问题,导致多数智能体仍停留在概念验证阶段,难以规模化落地。

AWS 重点升级了 Amazon Bedrock AgentCore 平台,针对企业部署中的核心需求提供一站式解决方案。该平台目前已全面通用可用,兼容 CrewAI、LangGraph 等开源框架及各类基础模型。这种开放性避免了企业被单一生态绑定,降低了开发成本。​

在安全治理方面,AgentCore Policy 功能允许开发者通过自然语言定义智能体的操作边界。例如 " 禁止访问财务部门数据库 "" 自动退款额度不得超过 1000 美元 " 等,通过 AgentCore Gateway 实时拦截违规 API 调用,实现独立于智能体代码的确定性控制。这一功能解决了智能体 " 越权操作 " 的风险,尤其适用于金融、医疗等监管严格的行业。该功能目前已进入预览阶段,AWS 表示将后续支持更细粒度的权限管控,例如基于角色的访问控制(RBAC)与数据脱敏处理。​

针对智能体可靠性难题,平台内置 13 种预置评估系统,覆盖准确性、安全性、工具选择逻辑、响应质量等关键维度,可对智能体进行持续监控。与传统人工评估不同,该系统通过大语言模型辅助生成评估报告,并解释失败原因。

例如,智能体未完成预订任务时,系统会自动分析是工具调用错误、参数设置不当还是上下文理解偏差,帮助开发者快速定位问题。这一能力大幅降低了企业自建评估体系的工程成本,据 AWS 客户反馈,采用 AgentCore 评估工具后,智能体从概念验证到生产部署的周期平均缩短 60%。​

记忆功能的升级让智能体具备了长期服务能力。AgentCore Memory 可记录用户交互历史与偏好,支持多轮会话和跨任务场景的上下文连贯性。例如,用户此前告知智能体 " 偏好无烟酒店 ",后续预订时无需重复说明。新增的情景学习(Episodic Learning)功能,能让智能体从过往经验中持续优化决策质量。例如,在多次处理客户投诉后,智能体可自动总结最优解决方案。这些能力已在实际应用中展现价值。

PGA TOUR 通过该平台构建的内容生成智能体,实现赛事新闻、球员数据报告的自动化生成,速度提升 1000%,成本降低 95%。Heroku 基于平台构建的应用开发智能体,可协助开发者完成代码调试、部署流程自动化,开发效率提升 30%。包括纳斯达克、百时美施贵宝等企业都已在借助该平台推动交易风控、药物研发等业务流程的自主化转型。​

从底层 Trainium 芯片的算力突破,到 AI 工厂的混合云部署延伸,再到 Nova 系列模型的定制化能力,最终通过 Bedrock AgentCore 实现智能体工程化落地,AWS 在 re:Invent 2025 上完整呈现了 " 芯片 - 模型 - 智能体 - 混合云 " 的全栈战略布局。

这一架构并非孤立模块的简单叠加,而是通过各层级的深度协同形成合力。Trainium 芯片为模型训练与智能体运行提供低成本算力支撑,AI 工厂解决合规部署难题,Nova Forge 让模型适配业务场景,Bedrock AgentCore 降低智能体开发门槛。这种协同效应构建了强大的竞争壁垒,使其区别于仅专注于单一环节的厂商。​

05. 全栈协同构建竞争壁垒,AWS 欲定义智能体 AI 的未来

在全球 AI 竞争进入深水区的当下,AWS 的战略转型意义深远。硬件层通过能效革命与生态开放,在英伟达主导的市场中开辟出差异化路径。基础设施层以主权云解决方案,切入政府与受监管行业这一高价值市场;模型层用深度定制服务,满足企业 " 专业化 " 而非 " 通用化 " 的核心需求;应用层靠工程化工具,打通 AI 从技术到价值的转化通道。

这种全栈协同的竞争模式,不仅将重塑 AI 基础设施的市场格局,还将推动企业智能化从单点应用走向全域自主化运营。未来,企业无需再整合多个厂商的产品,即可通过 AWS 生态快速构建贴合自身需求的智能体解决方案,这将大幅降低 AI 应用门槛,加速产业智能化进程。​

当然,AWS 的布局也面临挑战。

Trainium 芯片的生态兼容性仍需时间验证,Nova 模型的市场认可度需与 OpenAI、Anthropic 等厂商竞争,AI 工厂的本地化部署能力还需应对不同地区的监管差异。

但不可否认的是,AWS 此次发布的全栈战略,为行业提供了一种 AI 落地的全新范式。随着这一系列创新成果的落地,智能体 AI 有望真正突破技术瓶颈,成为驱动企业增长的核心引擎,开启人工智能商业化的全新阶段。(文 / 腾讯科技特约编译无忌,编辑 / 木木

评论
大家都在看