Techweb 04-12
AI算力大战爆发:英特尔、谷歌推出最强芯片挑战英伟达
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

目前,AI 技术潜力并没有完全释放出来,去年仅 10% 的企业推出生成式 AI 方案。

作者|林志佳

编辑|胡润峰

本文首发钛媒体 APP

北京时间 4 月 10 日凌晨,美国亚利桑那州 Intel Vision 2024 会议上,芯片巨头英特尔(Intel)发布性能最强的新一代 Gaudi3 AI 加速芯片,以及全新的下一代英特尔至强 6 处理器等产品。

其中,英特尔 Gaudi 3 AI 芯片采用台积电 5nm 工艺,支持 128GB HBMe2 内存。相比上代产品,英特尔 Gaudi 3 带来 4 倍(400%)的 BF16 AI 计算能力提升,1.5 倍的内存带宽以及 2 倍的网络带宽提升。同时,在 AI 模型算力中,相比于英伟达 H100 GPU,Gaudi3 AI 芯片的模型训练速度、推理速度分别提升 40% 和 50%,平均性能提高 50%,能效平均提高 40%,而成本仅为 H100 的一小部分。

英特尔预计,Gaudi 3 将于 2024 年第二季度起出货,戴尔、惠普、联想、超微电脑等企业将成为首批客户。

与此同时,今晨举行的谷歌云年度大会 Cloud Next 2024 上宣布推出一款基于 ARM 架构的服务器芯片 Axion,其性能比通用 ARM 芯片高 30%,比英特尔生产的 x86 最新芯片性能提高 50%。谷歌旨在减少对英特尔和 AMD x86 芯片的依赖。

全球围绕 AI 算力战争已经拉开帷幕。

" 现在的半导体竞争是一场产业战争,也是一场全面的国家战争。" 韩国总统尹锡悦 4 月 9 日宣布该国全面押注 AI 半导体发展,投入 9.4 万亿韩元(约合 500 亿元人民币),以帮助韩国成为与中国、美国并驾齐驱的全球三大 AI 半导体国家之一。

英特尔突袭英伟达 H100

新 AI 芯片训练快 40%,推理快 50%

就在深夜,英特尔 CEO 帕特 · 基辛格(Pat Gelsinger)手舞足蹈地亮出了最新 AI 芯片—— Gaudi3。

新一代 Gaudi 3 AI 加速器专为高性能、高效率的生成式 AI 计算而构建,每个加速器都具有独特的异构计算引擎,由 64 个 AI 定制和可编程 TPC 和 8 个 MME 组成,每个 Gaudi 3 MME 都能够执行 64000 个并行运算,支持 128 GB HBMe2 内存容量、3.7 TB 内存带宽和 96 MB 板载静态随机存取内存 ( SRAM ) 。

同时,每个 Gaudi 3 当中都集成 24 个 200 Gb 以太网端口,提供灵活且开放标准的网络。而 Gaudi 3 的 PCIe 功率为 600w,带宽为每秒 3.7TB。

性能方面,模型训练层面,Gaudi3 比英伟达 H100 快 40%;推理层面 Gaudi3 比英伟达 H100 快 50%。即便相比最新英伟达 H200,Gaudi3 AI 芯片的推理速度竟然也提升了高达 30%。

实际上,随着 ChatGPT 爆火,AI 模型、数据、算力基础设施成为生成式 AI 技术发展的三大要素。

据 Gartner 数据显示,2024 年,企业在生成式 AI 方向上预期支出达 400 亿美元,到 2027 年这一数据增至 1510 亿美元。与此同时,到 2026 年,企业对生成式 AI 使用程度达 80%,同时至少有 50% 的边缘计算部署将与 AI、机器学习(ML)等方向有关。

然而,AI 技术的全部潜力并没有完全释放出来。仅 10% 的企业组织去年推出面向生产的生成式 AI 方案;同时,有 46% 的的专家指出,基础设施是将大模型产品化的最大挑战。

因此,英特尔希望能够利用长期的 AI 技术积累,通过开放生态系统的力量,乘上 AI 热潮。与英伟达部分类似,英特尔也将提供一整套 AI 算力基础设施方案,从而 " 解锁 " 企业 AI,推动生成式 AI 的广泛应用和快速商业化,有望帮助企业应对 AI 项目时所面临的挑战。

基辛格在会上表示,到 2030 年,半导体市场规模将达 1 万亿美元,而 AI 是其中的主要推动力。

从整体路线图来看,AI PC、Edge AI(边缘)、Data Center AI(数据中心)将成为英特尔三大重要的计算生态系统,比英伟达覆盖面积更广,加上其开放、可扩展的软件和算法特性,广泛适用于多个 AI 领域,从而推动英特尔持续为企业客户打造全新 AI 方案。

具体到技术产品层面,除了英特尔 Gaudi3 之外,此次开幕活动上还公布了其他四个方向的重要进展:

1、全新英特尔至强 6 处理器品牌,应用于数据中心、云和边缘场景。

其中,与第二代至强处理器相比,配备能效核(此前代号为 Sierra Forest)的全新至强 6 处理器每瓦性能提高 2.4 倍,机架密度提高 2.7 倍,客户能以近 3:1 的比例替换旧系统,大幅降低能耗,预计将于 2024 年第二季度推出;而配备性能核的英特尔至强 6 处理器,可将下一个令牌(token)的延迟时间最多缩短 6.5 倍,能运行 700 亿参数的 Llama2 模型,预计不久后推出。

2、预览下一代英特尔酷睿 Ultra 处理器。英特尔宣布将推出下一代酷睿 Ultra 客户端处理器家族(代号 Lunar Lake),将具备超过 100 TOPS 平台算力,以及在神经网络处理单元(NPU)上带来超过 46 TOPS 的算力,从而为下一代 AI PC 提供强大支持。据悉,英特尔预计将于 2024 年出货 4000 万台 AI PC 设备。

3、面向网络互连层面的新品部署。与 NVLink 一样重要,通过超以太网联盟(UEC),英特尔公布面向 AI 高速互联技术(AI Fabrics)开放技术的以太网解决方案,利用高速互联技术支持 AI 模型训练和推理,产品组合包括英特尔 AI 网络连接卡(AI NIC)、集成到 XPU 的 AI 连接芯粒(Chiplet)、基于 Gaudi 加速器的系统,以及一系列面向英特尔代工的 AI 互联软硬件参考设计。

4、全面更新的边缘计算和 Tiber 业务组合。英特尔还发布新的 Edge 芯片产品,包括酷睿 TM Ultra、酷睿 TM、凌动处理器以及面向 Edge 的英特尔 ArcTM GPU,预计所有新品将于本季度上市,应用于包括零售、工业制造、医疗保健等关键领域,并将于今年获得英特尔 Tiber 边缘平台的支持。另外,英特尔还发布 Tiber 业务解决方案组合,以简化企业对生成式 AI 软件服务的部署工作,预计 Tiber 方案将于今年第三季度全面推出。

英特尔披露,截至目前,英特尔边缘计算处理器销量达 2 亿块,已边缘部署超过 9 万个解决方案。

另外,英特尔还宣布联合 Hugging Face、RedHat、SAP、VMware 等 15 家公司,将共同创建一个开放、多供应商的生成式 AI 系统平台,通过 RAG(检索增强生成)技术,提供运行大量现存专有数据源得到增强版开放大模型。

英特尔强调,公司不仅将提供包括硬件、软件、框架和工具,而且希望设备制造商、数据库提供商、系统集成商、软件和服务提供商等参与其中,推动英特尔 AI 开放生态系统的构建,以及将生成式 AI 技术进行场景落地。

总体来说,基于英特尔 5nm Gaudi3 AI 芯片,以及至强 6 处理器和软件栈,该公司正逐步构建 AI 领域的算力基础设施生态,全面挑战英伟达以及现有 AI 芯片市场格局。

英特尔方面去年 7 月对钛媒体 App 表示,市场需要替代品。客户非常欢迎英特尔 Gaudi 方案在向大众部署 AI 方面发挥重要的领导作用。" 几十年来,英特尔一直致力于把新的技术普及、普惠到各行各业。通过降低进入门槛,提高市场参与度,从而加快创新速度。"

基辛格在会上强调," 创新技术正在以前所未有的速度发展,每家公司都在加速成为 AI 公司,这一切都需要半导体技术提供支持。从 PC 到数据中心再到边缘,英特尔正在让 AI 走进千行百业。"

为减少对英伟达依赖

谷歌推出 ARM 服务器芯片

与微软、亚马逊一样,谷歌也推出了多款自研芯片,以减少对英伟达 GPU 芯片的依赖。

美东时间 4 月 9 日周二,谷歌在今年的年度云计算大会 Cloud Next 2024 上宣布推出一款基于 Arm 架构的数据中心芯片 Google Axion,以及更新 TPU v5p 芯片。

谷歌表示表示,Google Axion 处理器基于 Arm Neoverse V2 CPU 构建,以 Titanium 为基础,性能比通用 ARM 芯片高 30%,而且比英特尔生产的当前一代 x86 芯片高 50%。预计 Axion 用于多种谷歌服务,并在 " 今年晚些时候 " 向公众开放。

谷歌云副总裁兼计算和机器学习基础设施总经理 Mark Lohmeyer 表示:" 我们正在让客户轻松地将现有工作负载转移到 ARM。Axion 建立在开放基础之上,在任何地方使用 ARM 的客户都可以轻松采用 Axion,而无需重新架构或重新编写应用程序。"

" 谷歌推出的新型 Axion CPU 标志着交付定制芯片的一个重要里程碑,该芯片针对谷歌的基础设施进行了优化,并构建在我们的高性能 Arm Neoverse V2 平台上。数十年的生态系统投资,再加上 Google 的持续创新和开源软件贡献,确保为在各地运行 Arm 的客户最重要的工作负载提供最佳体验。"Arm 首席执行官 Rene Haas 表示。

事实上,Axion 只是众多定制发一份芯片中的最新产品。自 2015 年以来,谷歌已经发布了五代张量处理单元(TPU);同时,2018 年,谷歌发布了第一个视频编码单元 ( VCU ) ,视频转码效率提高了 33 倍;另外,2021 年,谷歌通过投资 " 片上系统 " ( SoC ) 设计,加大了定制计算的投入,并发布了用于移动设备的三代 Tensor 芯片中的第一款。

如今,谷歌推出新的芯片意味着,该公司正在追赶亚马逊和微软这些云领域竞争对手的步伐。亚马逊和微软 2021 年就已经推出 Arm 架构的 CPU,作为提供差异化计算服务的一种方式。而谷歌之前为 YouTube、AI 及其智能手机推出过定制芯片,但还没有打造过 CPU。

具体来说,Axion 将适用于一系列任务,包括支持谷歌的搜索引擎和 AI 相关的工作。谷歌表示,该芯片可以通过帮助处理大量数据并为数十亿用户部署服务,在 AI 领域发挥重要的支持作用。同时,未来谷歌逐步转移到基于 Arm 云服务器用例上使用,Datadog、Elastic、OpenX 和 Snap 都计划采用 Axion。

除了 Axion 之外,谷歌还宣布全面推出 TPU v5p,用于训练和推理的最强大、可扩展且灵活的 AI 加速器,其计算能力是上一代的 4 倍(400%)。

谷歌 CEO 桑达尔 · 皮查伊表示,生成式 AI 的进步需要强大的底层基础设施。谷歌 AI 超级计算机结合了我们的 TPU、GPU、AI 软件等,为训练和服务模型提供性能和成本优势。如今,领先 AI 公司和 Google Cloud 客户(例如 Anthropic、AI21 Labs、Contextual AI、Essential AI 和 Mistral AI)正在使用其基础设施。

数据显示,虽然广告依然是谷歌最大收入源,但云计算的增长更快,在谷歌的收入中占比不断提高,已接近占公司总收入的 11%。据 Gartner 估算,2022 年,谷歌占云基础设施市场 7.5% 的份额,而亚马逊和微软合计控制着 62% 左右的份额。

谷歌表示,现在已经有超过 90% 的 AI 独角兽企业在使用谷歌的计算资源、模型和开发环境。

如今,谷歌成为继微软和亚马逊之后,第三家用 ARM 架构推出数据中心 CPU 的科技巨头,这显示了新的趋势。而且,谷歌还利用 TPU 优势,全面提供服务器和数据中心闭环服务,降低英伟达、英特尔、AMD 芯片的依赖。

有评论称,谷歌开发新芯片是在 AI 竞赛白热化之际减少对外部厂商的依赖。不过,谷歌的官员并没有将芯片新品视为一种竞争之举。谷歌负责自研芯片业务的副总 Amin Vahdat 说:" 我觉得这是做大蛋糕的基础。"

从整体来说,Google Next 2024 上展现了整个谷歌云构建的 AI 开放和垂直优化技术栈。

AI Hypercomputer (算力层):TPU v5,Axion,2025 年将上线的英伟达 Blackwell GB200,以及新增 A3 Mega 计算单元。

Gemini Models(模型层):今天谷歌正式开发 Gemini 1.5 Pro API,新增语音模态理解能力、文件访问 API、系统指令以及 JSON 模式等功能。

Vertex AI(容器环境层):最方便的 AI 应用开发和运行环境,集成了除 OpenAI 之外的所有模型,方便调用、微调和各种开发测试。

应用层:谷歌提供 Gemini for Cloud、Workspace & Agent 等产品组合中,即 Gemini AI 产品将全面集成到 Cloud 与 Workspace 两大产品线,而且还预开发了一堆 AI Agent(代理),支持客服、雇员、创意、代码、数据、安全代理等等。

英伟达真的危险了吗?

黄仁勋:依然很稳

那么,前有谷歌、微软、亚马逊 " 造芯 ",后有英特尔 " 弯道超车 ",英伟达真的危险了吗?

2023 年 12 月初,AMD 高调推出了 MI300 系列产品。据介绍,MI300X 芯片拥有超过 1500 亿个晶体管,内存密度是目前英伟达 H100 的 2.4 倍,内存带宽是其 1.6 倍。AMD 首席执行官苏姿丰称,这款新芯片在训练 AI 软件的能力方面与英伟达的 H100 相当,并且在推理方面表现得更好,不过这一说法也未得到独立验证。

今年 3 月底,英伟达正式发布了新一代人工智能计算芯片 B200。英伟达 CEO 黄仁勋表示,B200 GPU 的 AI 运算性能在 FP8 及新的 FP6 上都可达 20 petaflops,是前一代 H100 运算性能的 2.5 倍。

如今,随着 Gaudi 3 的正式发布,当前 AI 芯片市场呈现出英伟达 B200、AMD MI300 系列和英特尔 Gaudi 3" 三巨头 " 竞争的格局。英伟达在 AI 芯片领域 " 一家独大 " 的局面面临来自另外两家厂商的挑战。

不过,从黄仁勋角度来看,英伟达的生态系统很稳定,在当前 AI 算力 " 军备竞赛 " 中,英伟达依旧暂时是市场的佼佼者。

黄仁勋前段时间这段话其实表达的非常明确:" 数据中心需要你运营它。购买和销售芯片的人考虑的是芯片价格。运营数据中心的人考虑的是成本,我们总拥有成本(TCO)非常好。即使竞争对手芯片是免费的,他们也不如我们,客户也不会买。我们的目标是增加更多的价值。

但这背后需要很多努力,我们必须不断创新、我们不能把任何事情视为理所当然、我们有很多竞争对手。"

事实上,AI 芯片是一个不断向前 " 奔跑 " 的高技术行业。它没有垄断,只有不断创新提供更大价值,才有可能让企业持续保持领先地位。因此,无论是英伟达还是英特尔,他们都有非常强大的市场竞争力,也都有望成为 AI 加速计算市场的 " 领先者 "。

如今,在服务器市场,AMD 正在逐渐蚕食该公司的市场份额。据市场调研机构 Mercury Research 所公布的 2023 年第四季度 AMD 处理器市场份额统计数据,AMD EPYC 已经拿下了 23.1%服务器市场份额,份额占比再次扩大。尽管 EPYC 作为通用处理器,算力上不如 GPU 加速器,不过该产品可与 GPU 加速器、AI 加速器等协同工作,实现效率的最大化。

而全新英特尔 AI 芯片 Gaudi,预计将不太会在中国大陆市场销售。但从全球来看,它是否真的能如其所言的,凭借性能优势、极具竞争力定价优势而占领更大的市场份额,一切还有待时间的检测。

(本文首发钛媒体 App)

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

英特尔 ai 英伟达 ai芯片 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论