驱动之家 02-07
DeepSeek的挑战来了!AI教母李飞飞用不到50美元训练出新模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 2 月 7 日消息,在科技日新月异的今天,人类可以说活在一个不断被人工智能颠覆的世界。据媒体报道,近日,"AI 教母 " 李飞飞团队以不到 50 美元的云计算费用训练了一个名叫 s1 的人工智能推理模型。

据了解,s1 模型在数学和编码能力测试中的表现与 OpenAI 的 o1 和 DeepSeek 的 R1 等尖端推理模型类似。李飞飞团队研究人员表示,s1 是通过蒸馏法由谷歌推理模型 Gemini 2.0 Flash Thinking Experimental 提炼出来的。

这则消息让美国科技圈震惊不已,因为 DeepSeek 团队在春节前,将 OpenAI 的训练费用打到三十分之一。但仅仅过去不到一个月,现在李飞飞团队又用不到 50 美元训练出媲美 DeepSeekR1 的 AI 推理模型,人工智能领域可以说是越来越卷了!

李飞飞团队从 Gemini 蒸馏出媲美 DeepSeek R1 模型意味着,通过使用蒸馏技术,研究人员成功地从 Gemini 模型中提取或 " 蒸馏 " 出知识,并利用这些知识训练了一个新的模型,这个新模型在性能上能够与 DeepSeek R1 模型相媲美。

具体来说,蒸馏技术是一种模型压缩和优化方法,它涉及到一个大型、复杂的模型(通常称为 " 教师模型 ")来指导一个较小的、简单的模型(通常称为 " 学生模型 ")的学习过程。

教师模型通常具有较高的准确性和复杂度,而学生模型则更加轻量级,便于部署和使用。通过蒸馏技术,学生模型可以继承教师模型的知识,从而在保持较高性能的同时,减少计算资源的消耗。

值得注意的是,这种技术不仅限于 Gemini 和 DeepSeek R1 之间的蒸馏,它也可以应用于其他 AI 模型的优化和压缩。此外,蒸馏技术还可以帮助解决深度学习模型在实际应用中面临的计算资源和延迟问题,使得这些模型能够在资源受限的环境中也能表现出色。

公开资料显示,李飞飞是华裔科学家,被誉为 "AI 教母 ",在人工智能领域享有盛誉。她于 1976 年出生,16 岁随父母移民美国,凭借卓越的学术能力进入普林斯顿大学,并最终获得加州大学人工智能和计算神经科学方向的博士学位。

她最著名的成就是创建了全球最大的图像识别数据库 ImageNet,包含 21800 个类别和超过 1400 万张图像,为计算机视觉领域的发展奠定了基础。目前她是斯坦福大学终身教授,并曾担任谷歌云首席科学家。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

李飞飞 ai 人工智能 美国 斯坦福大学
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论