2025 年 10 月 16 日,深圳——在今日举行的湾区半导体大会上, 英特尔中国区显卡和 AI 高级产品总监徐金平发表了题为《英特尔锐炫多卡方案助阵 AI 应用落地部署》的演讲。演讲着重阐释了英特尔为加速企业 AI 部署所推出的创新路径——通过打造基于英特尔锐炫多卡的 Battlematrix(战斗阵列)推理工作站平台,突破单 GPU 的算力和应用瓶颈,为从边缘、工作站到服务器的广泛应用场景,提供高效且极具成本效益的 AI 部署方案,让更多企业将 AI 转化为实际生产力。
在 AI 时代,企业面临的是一个充满机遇与挑战的局面:一方面,大模型规模化商用进展突飞猛进,蕴藏的机遇近在咫尺。另一方面,无论是海量图像、文本、音视频数据的处理,还是复杂精细化 AI 模型的部署等等,都给传统算力架构的性能和能耗带来了挑战。AI 浪潮的确是席卷而来,但如何将 AI 潜力有效地转化为实际生产力,仍是一道横亘在前的难题。
英特尔锐炫多卡方案希望凭借灵活的扩展能力,不仅高效承接多模态数据的密集型计算需求,又能降低企业 AI 部署的成本与复杂度,为 AI 的大规模、普惠化落地筑牢支撑。
作为方案的核心硬件,英特尔锐炫™ Pro B60 GPU 有着为 AI 推理量身打造的关键亮点—— 24GB 的大显存和 456GB/s 的高内存带宽,满足了 AI 推理对显存容量的迫切需求,让大参数模型流畅运行,让海量数据高效吞吐;同时,197 TOPS 的峰值算力则为各类复杂 AI 推理任务提供了源源不断的动力。
英特尔锐炫 Pro B60 GPU 的另一大亮点是支持多显卡协同工作。考虑到边缘端和服务器等更广泛应用场景的需求,英特尔设计了基于锐炫 Pro B60 GPU 的多卡互联方案—— Battlematrix(战斗阵列)推理工作站平台。它最多可搭载 8/16 张英特尔锐炫 Pro GPU,显存最高可达 192GB/384GB,支持 100B+ 参数模型,可顺畅处理大规模数据集与复杂模型等任务,契合企业对 " 高算力 + 大显存 + 成本效益 " 的多重诉求。在实际应用中,英特尔工程师团队借助该方案,将原本需数天完成的代码修复全流程缩短至数小时,充分验证了多卡互联方案在复杂任务处理中的高效与可靠。
以英特尔锐炫 Pro B60 和锐炫多卡解决方案为核心,英特尔为不同场景的 AI 部署提供了灵活的产品形态选择。具体而言:
个人和边缘侧轻量级AI推理场景:提供搭载 1 块英特尔 ® 酷睿™ 处理器和 1-2 块英特尔锐炫 Pro B60 GPU 的方案,支持 7B 至 32B 模型,实现单用户到 16+ 多用户的并发处理。
通用工作站及服务器场景:通过搭载英特尔 ® 至强 ® 处理器平台,并配置 4 块英特尔锐炫 Pro B60 GPU,可支持 32B 至 70B 模型,满足 50+ 用户的并发需求。
专用AI服务器场景:可借助 2 块英特尔 ® 至强 ® 处理器平台和 8-16 块英特尔锐炫 Pro B60,支持 32B 至 100B 模型,服务 100+ 以上用户。
由此一来,无论是个人电脑、边缘设备、通用工作站 / 服务器,乃至专用 AI 服务器,都能找到与之匹配的高效且具备成本优势的部署方案,这正是英特尔助力更多企业快速推进 AI 部署与实践的具体体现。
今年,英特尔已经推出了英特尔锐炫多卡 AI 算力一体机方案,而基于英特尔锐炫 Pro B 系列的多卡方案的到来,进一步丰富了英特尔支持 AI 大模型部署的硬件形态。在 AI 快速迭代的当下,英特尔强调的是软硬结合的综合价值,将通过底层硬件创新与开放软件生态,让 AI 部署更普惠、更便捷。
登录后才可以发布评论哦
打开小程序可以发布评论哦