近日,负责支持和保护网络生活的云服务提供商 Akamai 宣布与英伟达联手推出全新的 Akamai Inference Cloud,一个专为 AI 推理设计的边缘云平台。这意味着,AI 模型的推理和响应将不再依赖远在数据中心的算力,而是更靠近用户、更快速地完成。
据雷峰网了解,Akamai Inference Cloud 集成了英伟达最新一代 RTX PRO 6000 Blackwell GPU 和 BlueField-3 DPU,是全球首批采用该 GPU 架构的云厂商之一。
作为此次合作采用的核心算力组件,NVIDIA RTX PRO 6000 Blackwell 系列于 2025 年 3 月发布,支持高达 96 GB 显存与 24K CUDA 核心。
市场普遍认为,这款卡在企业级市场是一次较大规格提升,如 Tom ’ s Hardware 指出其显存容量远超一般消费卡,例如对比 RTX 5090 的 32 GB。对 AI 推理、LLM、专业渲染等场景而言,这款 GPU 被视为 " 向边缘、专业市场加速 " 推动的关键硬件。而这也是 Akamai 选择 RTX PRO 6000 的一大核心原因。
AI 模型的复杂度在过去两年呈爆发式增长,从图像生成、语音识别,到大型语言模型(LLM),对 GPU 算力与显存的需求都在倍增。Akamai 认为,传统的集中式推理架构难以支撑这类高实时性任务,AI 算力必须 " 靠近用户 "。
在选择 RTX PRO 6000 时,Akamai 看重的是其 " 平衡型性能 " ——既能满足专用 AI 模型的高效推理,又能支撑大型语言模型的高显存需求;同时支持 GPU 虚拟化与资源分片技术,使单卡可同时处理多个模型任务,提高整体算力利用率。
" 这款 GPU 的性能与扩展性非常适合边缘部署。"Akamai 亚太区与全球云架构师团队总监李文涛表示。
在与英伟达的合作中,Akamai 并非仅仅追求硬件升级,而是打造 " 边缘基础设施 + AI 软件栈 " 的整体方案。
根据 Akamai 测试数据,相比集中式推理部署,其方案可实现智能体响应速度提升 6 – 10 倍、P95 延迟降低高达 5 倍。Akamai 全球网络可覆盖 95% 的互联网用户,单跳访问平均延迟仅 10 毫秒,而中心云通常在百毫秒级别。这一差距,意味着 AI 应用的响应可提升一个数量级。
在成本方面,Akamai 的优势更加明显。AI 服务的主要支出除了 GPU 算力,还有网络流量成本。主流公有云的出向流量定价约为 0.10 美元 /GB,而 Akamai 的成本仅 0.005 美元 /GB,低 20 倍以上。这对于需要大量 AI 推理和数据回传的企业,意味着可观的降本空间。
李文涛认为,边缘 AI 推理的需求已经在多个行业爆发,例如:媒体娱乐行业,像 Monks 这样的视频与营销平台,将 AI 模型部署在内容采集源头,实现实时识别与互动;电商行业通过边缘 AI 实现即时推荐和个性化服务,提升用户体验;智能驾驶与 IoT 行业,在毫秒级响应的要求下,边缘推理能显著提升服务安全性和稳定性。此外,金融机构也开始利用边缘 AI 完成实时风险识别,既能降低延迟,又能符合数据本地化与合规要求。
在中国市场,Akamai 的主要客户群是出海企业。据李文涛对雷峰网介绍,目前,Akamai 中国团队中超过三分之二是技术岗位,提供贴身的顾问式技术支持;海外团队则提供 "24 × 7 全球时区 " 服务,帮助企业在全球范围内部署 AI 能力。
过去三年,Akamai 公有云在中国市场已服务媒体、电商、金融科技、广告科技、IoT 和智能制造等多个行业。随着 Akamai Inference Cloud 的推出,这些企业在海外市场将能更快、更稳、更低成本地部署 AI 服务。
Akamai 与英伟达的合作,是 AI 基础设施竞争的又一次版图扩张。当 AI 应用从模型训练转向大规模推理,算力的位置开始变得关键——离用户越近,价值越高。
Akamai Inference Cloud 的推出,或许预示着下一个阶段的 AI 竞争,不再是 " 谁的 GPU 更强 ",而是谁能更快地把 AI 推理送到世界的每一个角落。


登录后才可以发布评论哦
打开小程序可以发布评论哦