快科技 4 月 14 日消息,NVIDIA 不但打造了强大的 AI GPU,在全世界带动了新一轮的 AI 浪潮,自己内部也在大规模部署 AI,包括 GPU 芯片设计流程。
NVIDIA 首席科学家 Bill Dally 在与谷歌首席科学家 Jeff Dean 对话时提到,NVIDIA 已经在芯片设计阶段大量应用 AI,包括设计探索、标准单元库开发、Bug 处理、验证等不同阶段。
不过他强调,使用 AI 进行完全端到端的自动化芯片设计,依然为时尚早,但何时能够实现,他不愿意轻易预言。

Dally 分享了一个 AI 芯片设计的具体案例。
以往,NVIDIA 将标准单元库迁移到全新的制程工艺,需要一个 8 人团队工作 10 个月,也就是 80 人月的工作量。
如今,NVIDIA 有了基于强化学习的工具 NB-Cell,已迭代两三代,如今只需一块 GPU 显卡运行一夜,即可完成上述工作。
更关键的是,AI 工具生成的单元在面积、功耗、延时方面,都达到甚至超越了人工设计的水平,从而可以快速部署新工艺。
Dally 还提到了另一款内部工具 Prefix RL,针对的是一个长期研究的难题,即进位超前链中的超前级布局。
他声称,AI 工具生成的布局,是 " 人类工程师永远无法想到的 ",而且关键性能指标比人工设计高了 20-30%。
这表明,NVIDIA 使用 AI 不仅仅是为了提高效率、节省时间和人工,更是为了探索超出人类常规直觉的设计方案。

Prefix RL
在更宏观的层面上,Dally 还透露,NVIDIA 已经在内部运行两款大语言模型:Chip Memo、Bug Nemo。
这些大模型基于 NVIDIA 专有数据进行了微调,包括多年来 GPU 设计的寄存器传输级 ( RTL ) 代码、架构文档。
Dally 表示,它们带来的实际收益之一,就是初级工程师遇到问题后,可以直接向大模型提问并获得答案,不再需要反复向资深设计师请教,后者也可以专注于更高价值的工作。
同时,它们还能帮忙汇总 Bug 报告,并协助分配至对应模块或工程师。
值得一提的是,NVIDIA 似乎没有因为 AI 工具带来的效率提升,而裁掉初级员工,反而是通过更高效的方式,培养他们快速进步。
相比于很多企业动不动用 AI 替代和淘汰员工,或许,这才是 AI 最平衡的应用之道。


登录后才可以发布评论哦
打开小程序可以发布评论哦