量子位 04-23
微软推出iPhone能跑的ChatGPT级模型,网友:OpenAI得把GPT-3.5淘汰了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

Llama 3 发布刚几天,微软就出手截胡了?

刚刚发布的Phi-3 系列小模型技术报告,引起 AI 圈热议。

其中仅3.8B 参数的 Phi-3-mini在多项基准测试中超过了 Llama 3 8B

为了方便开源社区使用,还特意设计成了与 Llama 系列兼容的结构。

微软这次打出" 手机就能直接跑的小模型 "的旗号,4bit 量化后的 phi-3-mini 在 iPhone 14 pro 和 iPhone 15 使用的苹果 A16 芯片上跑到每秒 12 token。

这意味着,现在手机上能本地运行的最佳开源模型,已经做到 ChatGPT 水平。

在技术报告中还玩了一把花活,让 phi-3-mini 自己解释为什么构建小到手机能跑的模型很令人惊叹。

除了 mini 杯之外,小杯中杯也一并发布:

Phi-3-small,7B 参数,为支持多语言换用了 tiktoken 分词器,并额外增加 10% 多语种数据。

Phi-3-medium,14B 参数,在更多数据上训练,多数测试中已超越 GPT-3.5 和 Mixtral 8x7b MoE。

(大杯他们目前不打算做)

作者阵容一看也不简单,一眼扫过去 MSRA 和 MSR 雷蒙德团队都投入了不少人。

那么,Phi-3 系列到底有什么独特之处呢?

根据技术报告中披露,其核心秘诀就在于数据

去年团队就发现,单纯堆砌参数量并不是提升模型性能的唯一路径。

反而是精心设计训练数据,尤其是利用大语言模型本身去生成合成数据,配合严格过滤的高质量数据,反而能让中小模型的能力大幅跃升。

也就是训练阶段只接触教科书级别的高质量数据,Textbooks are all you need

Phi-3 也延续了这一思路,这次他们更是下了血本 :

投喂了多达 3.3 万亿 token 的训练数据(medium 中杯是 4.8 万亿)

大幅强化了数据的 " 教育水平 " 过滤

更多样化的合成数据,涵盖逻辑推理、知识问答等多种技能

独特的指令微调和 RLHF 训练,大幅提升对话和安全性

举个例子,比如某一天足球比赛的结果可能对于大模型是良好的训练数据,但微软团队删除了这些加强知识的数据,留下更多能提高模型推理能力的数据

这样一来,对比 Llama-2 系列,就可以用更小的参数获得更高的 MMLU 测试分数了。

不过小模型毕竟是小模型,也不可避免存在一些弱点。

微软透露,模型本身参数中没能力存储太多事实和知识,这一点也可以从 TriviaQA 测试分数低看出来。

缓解办法就是联网接入搜索引擎增强。

总之,微软研究院团队是铁了心了要在小模型 + 数据工程这条路上走下去,未来还打算继续增强小模型的多语言能力、安全性等指标。

对于开源小模型超过 ChatGPT 这回事,不少网友都认为压力现在给到 OpenAI 这边,需要赶快推出 GPT-3.5 的继任者了。

参考链接:

[ 1 ] https://arxiv.org/abs/2404.14219

—    —

点这里关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~  

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

微软 开源 技能 中超 mini
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论