雷科技 06-03
一年一款大更新,英伟达AI芯片能打破摩尔定律?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

我们现在所处的不是 AI 时代,而是一个生成式 AI 时代。

是的,正如黄仁勋在台北电脑展 2024 展前演讲中所说,生成式 AI 技术正在不知不觉中影响着我们的生活与工作。而早在 2014 年就提出 CUDA(通用计算平台)概念的英伟达,已经尝到人工智能带给它的甜头。

市值从 1 万亿美元到 2.7 万亿美元,英伟达仅仅用了一年左右的时间。从纸面数据来看,英伟达毫无疑问是这场 AI 革命的最大赢家,并且它还在这条道路上不断前行。

6 月 2 日晚,Computex 2024(2024 台北国际电脑展)在台北贸易中心南港展览馆正式举行,英伟达创始人和 CEO 黄仁勋登台发表了主题为 "Don't Walk" 的主题演讲,向全球系统且全面的展示了英伟达在加速计算和生成式 AI 的最近成果,同时分享了人工智能时代如何助推全球新产业革命。

图源:Computex 2024

在这场两个小时的演讲中,黄仁勋宣布 " 全球最强大的芯片 "Blackwell 芯片正式投产,并表示将在 2025 年推出 Blackwell Ultra AI 芯片,2026 年发布下一代全新架构 Rubin,2027 年继续推出升级版 Rubin Ultra,以及英伟达在 GPU、CUDA、NIM 等不同阶段的产品线历史。

老黄这一套连招下来,相信不少人已经被庞大的信息量砸得晕晕乎乎,那么英伟达即将给 AI 产业带来什么改变?一起来看看。

英特尔和英伟达在不少领域面临竞争关系,英特尔 CEO 帕特 · 基辛格不止一次在公开场合发表过自己对英伟达的看法,在某次采访中,基辛格感叹英伟达在人工智能领域 " 非常幸运 " 地占据了主导地位,并表示英伟达的 " 地位 " 本应该属于英特尔。

英伟达在人工智能领域的主导地位究竟是不是运气使然?这次黄仁勋公布的新架构路线图或许正是最好的回应。

由英特尔创始人之一戈登 · 摩尔提出的摩尔定律,其核心内容为处理器性能大约每两年翻一倍,同时价格下降为之前的一半。而英伟达直接将 GPU 架构的更新频率从两年一次更新,加速到一年一次。咱就先不说成本的事,就这更新频率,大有掀翻摩尔定律的势头。当然,从 7nm 制程开始,一直有人说 " 摩尔定律已死 ",最典型的就是英伟达 CEO 黄仁勋,英伟达能否给这个讨论定下结论,让我们共同期待。

回到产品本身,Blackwell B200 是 NVIDIA   Blackwell 架构首款新产品,基于台积电的 4nm 工艺打造,采用了将两个 Die 连接成一个 GPU 的双芯设计,因此每个 GPU 芯片上拥有 2080 亿个晶体管,比起上一代 GH100 GPU 上的 800 亿个晶体管,Blackwell B200 GPU 算是一次相当大的突破。

在 B200 的基础上,英伟达还推出了由两个 Blackwell   B200 GPU 和一个基于 Arm 的 Grace CPU 组成的完全体 AI 芯片组:Blackwell GB200。该架构主要是为了满足未来 AI 工作负载的需求,为全球机构运行实时生成式 AI 提供了可能,而且其成本和能耗只有上一代 Hopper GPU 架构的二十五分之一。

虽然黄仁勋没有透露 2025 年计划推出 Blackwell Ultra 的具体情况,但参考 Blackwell 在性能、成本和能耗方面的提升,同架构升级版本的表现让人无比期待。

来到 2026 年,命名源于美国女天文学家 Vera Rubin 的下一代 GPU 架构 Rubin 即将面世,将首次支持 8 层 HBM4 高带宽存储。届时代号 "Vera" 的 CPU 将于 Rubin GPU 一同推出,组成 Vera Rubin 芯片。此外,Rubin 平台还将搭载新一代 NVLink 6 Switch,提供 3600GB/s 的连接速度,以及 1600GB/s 的 CX9 SuperNIC,以保证高效的数据传输。

图源:Computex 2024

根据爆料,Rubin 架构首款产品为 R100,采用台积电 3nm EUV 制造工艺,四重曝光技术,CoWoS-L 封装,预计 2025 年第四季度投产。

2027 年,升级版 "Rubin Ultra",HBM4 内存升级为 12 堆栈,容量更大,性能更高。

至此,英伟达未来 4 年的宏伟蓝图正式向我们展开,这一战略规划一直延伸到 2027 年,英伟达提前公布的方式尽显自信。自信来源于底气,黄仁勋在演讲中直接将英伟达定义为全球生成式 AI 浪潮的来源及推动者:

人工智能崛起之所以有可能,完全因为我们相信只要让强大的计算变得越来越便宜,总会有人找到巨大的用途。正因为我们利用特定算法将计算边际成本降低了 100 万级别,今天使用互联网上的所有数据来训练大模型才成为了所有人默认合乎逻辑的选择,不再有人怀疑和质疑这个做法。而在英伟达这么做之前,没有人预料到,没有人提出这样的需求,甚至没有人理解全部潜力。

我们很难评判这番言论的对错,但英伟达对全球生成式 AI 产业的贡献大家有目共睹,其主张的 CUDA 已经达到了相对成熟阶段,随着 CPU 性能增长放缓,利用 CUDA 等技术加速计算任务又将成为应对计算需求的新宠儿,生成式 AI 也将成为全球下一次革命性的技术变革。

在演讲中,黄仁勋还介绍了 Earth-2 数字孪生地球、Isaac 机器人平台、nference Microservices 等一系列 AI 工厂的内容。随着业务的不断扩展,我们似乎很难用一个或几个词来概括这家万亿市值级别的芯片巨头了。

过去提起英伟达的优势,大家最熟悉的必然是 GPU、CUDA......,大体可以归纳为软件构建生态,硬件堆砌算力。说到这里,又要请出老熟人英特尔 CEO 帕特 · 基辛格,因为他在酷睿 Ultra 发布会上表示:英伟达 CUDA 护城河又小又浅。

来到生成式 AI 时代,如果 CUDA 真如基辛格所说,无法成为英伟达的技术护城河,那么英伟达还能依靠什么呢?我想答案或许是 AI 网络。

去年 5 月,英伟达在 COMPUTEX 2023 上发布了全球首个专为人工智能(AI)设计的高性能以太网架构 Spectrum-X,其主要面向生成式 AI 市场。据介绍,Spectrum-X 拥有无损网络、动态路由、流量拥塞控制、多业务性能隔离等主要特性,能降低大模型训练成本、缩短训练时间。

图源:英伟达

AI 大模型之所以称之为大,不仅是因为模型参数量大,还有日常训练所需的庞大数据,这些先决条件导致大模型的训练成本极高。

4 月初,OpenAI 的竞争对手 Anthropic 的首席执行官达里奥 · 阿莫代伊接受采访时指出,目前市场上人工智能模型的培训成本已高达约 1 亿美元,预计到了 2025 年和 2026 年,这一成本将飙升至 50 亿或 100 亿美元。

其中的大部分费用被 GPU 消耗,以英伟达 Blackwell 处理器为例,训练一个拥有 1.8 万亿参数的 AI 大模型需要大约 2000 个 Blackwell   GPU,如果将 GPU 换成 Hopper,则大约需要 8000 个。

因此,不少企业选择打造成千上万 GPU 互联的 AI 数据中心,其实也就是黄仁勋所说的 AI 工厂,只不过这个工厂生产的产品是训练好的大模型。整体算力优势能有效降低训练成本,减轻企业从头搭建 AI 大模型的复杂步骤,简单来说,就是 AI 大模型训练外包。

除了 AI 数据中心外,另一个方法就是前面提到的网络架构。区别于传统网络,面向 AI 计算的网络架构就是为了解决单一数据中心超载,从而需要多个地区的数据中心协同工作而存在的。

从技术层面来看,Spectrum-X 针对 AI 计算的高稳定性要求,进行了针对性优化,也就是多种软硬件技术组成的系统级网络架构,以解决 AI 训练过程中 N 个 GPU 同步运行的负载,以及处理突发流量的能力。

随着生成式 AI 的发展,数据量需求必然剧增,当纯 GPU 和单一数据中心不足以解决数据负载问题时,成熟的网络架构就会成为英伟达下个技术护城河。或许英伟达在布局时也没有想到,这个原本用于传统云计算的技术会成为生成式 AI 浪潮的关键。

英伟达公布的截至 2024 年 4 月 28 日的 2025 财年第一财季财报显示,英伟达期内实现营收 260.44 亿美元,同比上涨 262%;净利润 148.81 亿美元,同比上涨 628%。财报数据公布后不久,英伟达股价迅速上涨,据统计,在过去的 2023 年中,英伟达股价涨幅超 230%,今年以来涨幅已达到 121.39%。

可以说,全球 AI 算力芯片龙头,被称为 "AI 时代卖铲人 " 的英伟达在这轮生成式 AI 浪潮中赚得盆满钵满,也难怪老黄在演讲时春风满面。现在,英伟达的 " 卡 " 供不应求,不只是字节、百度等中国科技巨头在抢着囤卡以应对极端情况,硅谷科技巨头如微软、Meta,也全都在找英伟达买卡。

事实上,入局 AI 以及 AI 芯片的玩家越来越多,OpenAI 以及谷歌等 AI 巨头也将 AI 产品的竞争方向从大语言模型转向多模态模型。可以预见的是,接下来几年企业训练 AI 的算力需求还会冲上一个新高峰,英伟达作为当前 AI 算力芯片领域的巨头,持续增长几乎是板上钉钉的事情。

当然,谷歌、OpenAI 等玩家都在通过自己的方式试图打破英伟达的算力霸权,短时间内或许很难实现抗衡,但市场不会坐视任何企业一家独大,所有玩家都会继续挑战英伟达,直至成功。

英伟达能否再续辉煌,一年一款大更新带来的效果究竟会有多惊人,我们很快就能知道答案。

2024 年 5 月 20 日 -6 月 30 日,618 年中大促来袭,淘宝天猫、京东、拼多多、抖音、快手、小红书六大电商平台集体 " 听劝 ",取消预售、疯狂杀价!

手机数码、AI PC、智能家电、电视、小家电、空冰洗等热门 AI 硬科技品类摩拳擦掌,战况激烈。

雷科技 618 报道团将全程关注电商平台最新战况,AI 硬科技品牌最新动态,电商行业全新趋势,敬请关注,一起期待。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

逗玩.AI

逗玩.AI

ZAKER旗下AI智能创作平台

相关标签

英伟达 摩尔定律 黄仁勋 芯片 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论