硅星人 04-10
收手吧Sam Altman!外面全是GPT-4
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

满世界都是 GPT-4 们

GPT-4 问世一年后,全世界已经到处都是 GPT-4 级别的大模型了。

尤其是最近几个月,这些模型以越发密集的频率现身。

最近的一个就在刚刚。在 Google Cloud Next 24 大会上,Google 把今年二月发布的对标 GPT-4 的 Gemini 1.5 系列,进一步开放给用户。Google 宣布,在经过两个月的小范围公测后,Gemini 1.5 pro 通过 API 方式已经对 180 多个国家和地区开放,并且在其对标 GPT-4 的性能表现之外,此次 Gemini 1.5 Pro 还增加了强大的音频理解能力,可以根据用户输入的文本提示,理解、总结上传的视频、音频内容——过往你需要把音频等转成文字,而现在这一步可以省去了。

此外 Gemini 1.5 pro 还增加了系统指令、JSON 模式以及函数调用优化等。

在此次 Google 云的场子上,Gemini 1.5 pro 的能力提升还伴随着一系列从芯片到系统的全面解决方案,Google 正加紧跟 GPT-4 抢生意的步伐。

而不只是 Google,同一天,Grok 2.0 的消息也传出。据报道,马斯克在一次采访中透露,自己的人工智能初创公司 xAI 正在 2 万张 H100 上训练 Grok 2.0,并将于 5 月份推出。而且,他相信新版本不仅比 GPT-4 更强大,还将超越市面上所有大模型标准。甚至扬言训练 Grok 3 会用到 10 万张 H100 GPU,到时就算 GPT-5 也会被秒成渣渣。

这还没完。

似乎是还嫌这世界上的 "GPT-4 们 " 不够多,据 The Information 前一天的消息,Meta 也计划于下周推出 Llama 3 的两个小版本,作为夏天发布最大版本的前奏。

而与大模型相比,小型模型通常更便宜、运行速度更快,对于构建移动设备 AI 软件很有实用价值。去年 7 月发布的 Llama 2-7b、Llama 2-13b 和 Llama 2-70b 因其免费开源而广受社区欢迎,而今两个小版本 Llama 3 的消息也将振奋开发者情绪。扎克伯格年初宣布 35 万张 H100 即将入荷,正在积极训练 Llama 3,看来很快就要兑现。据 Meta 称,Llama 3 完全版将是多模态的,可能会超过 1400 亿个训练参数,并希望它真正成为 " 开源版 GPT-4"。

再加上今年 2 月对标 GPT-4 的 Mistral Large,推理速度、MMLU 等关键性能上媲美 GPT-4;上月底 " 开源新王 "Databricks 发布的号称比 Llama 2、Mistral 和 Grok 1 更强的 DBRX;以及更令人印象深刻的 Anthropic 的 Claude 3......

全世界到处都是 GPT-4 了。

GPT-4 的瓶颈意味着什么

2022 年 11 月 30 日,OpenAI 首次发布了由 GPT-3.5 模型驱动的 ChatGPT,之后一切都彻底改变。

在 ChatGPT 首次发布四个月后,2023 年 3 月 14 日,OpenAI 正式推出了 GPT-4,后续不断改进,引入多模态能力、增加实时搜索、拉长上下文、重新定义开发者… .OpenAI 几乎引领了生成式 AI 所有的技术革新,GPT-4 也成为最领先的模型。

所以,如果从 OpenAI 和 ChatGPT 的公开发布节奏来算,GPT-3.5 的领先只持续了不到 6 个月,就被 GPT-4 取代,然而 GPT-4 作为最强模型却已经持续了一年多。同时,同样水平的模型开始显得 " 到处都是 "。

对于其他行业来说,这已经是个日新月异的疯狂节奏,但拿大模型的进步速度来看,这却给人一种感觉,就是大模型似乎进入了一个瓶颈期。

OpenAI 也一定会焦虑,但它拿出的似乎只是更多的 GPT-5 的传言和一个 GPT-4 Turbo 的正式版。

在 Google 用 Gemini 1.5 pro 的升级和放量针对 OpenAI 的同时,OpenAI 也做了应对,宣布 GPT-4 Turbo 不再只是以预览版提供给开发者,而是发布了正式版。它自带读图能力不再需要调用 GPT-4V 接口,训练数据更新到了 2023 年底。与 GPT-4 普通版支持 8K 上下文相比,它能支持 128k 上下文。

尽管 OpenAI 官方对此形容为模型能力 " 大范围提升 ",但外界期待的显然不是这个。

那么这种看起来越来越可能的瓶颈期对行业意味着什么?

对于对 AGI 快速到来满怀期待的人们来说,这显得很糟糕。但其实对期待生态和商业机会爆发的人们来说,瓶颈可能不是个 " 坏事 "。这意味着底层模型能力和技术路线的颠覆频率变的没那么疯狂,建立在上面的应用和中间层都可以有更高的确定性。

同时,对于那些真正的大客户来说,他们也可以不再 " 等等看 " ——当底层能力每几周就突破一次的时候,账期动辄好几个月的产业侧客户们自然会选择持续观望而不是马上拨动预算。而当他们看到技术似乎稳定下来,情况就会变化。

而对于 Sam Altman 来说,他正在面对又一个全新的局面。

GPT-4 作为最强模型的时间越久,就越可能有更多的对手追上来,但追上来的对手似乎又都没有达到像 GPT-4 对 GPT-3.5 那样的超越。那么,他过往一段时间领导 OpenAI 在执行的策略——依靠技术路线的领先来更早的拿到最多的商业化订单和融到更多的钱,然后反哺研发,延续 Scaling law,继续保持代际领先的路线,就可能不再成立。

当对手一次次的跟上,用户们一次次的喊着 GPT-5 就要来了但又一次次没来的时候,OpenAI 正变得不再独特,这家公司需要 Sam Altman 去做的,就越来越像一个科技公司大厂 CEO 要做的事情,去一个差异化不大的市场里比拼最基本的商业竞争能力——当外面到处都是 GPT-4,Sam Altman 的那些高调打法,可能就要 " 收手 " 了。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

google 开源 the 扎克伯格
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论