量子位 08-21
DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

大模型 " 世子之争 ",果然暗潮汹涌(doge)。

这不 " 手机内存不够 " 怎么办,如果你问问 DeepSeek 老师:你和豆包删一个你删谁?

DeepSeek 深度思考后回答得那叫一个干脆——

好一个新世纪灵魂拷问,讨论之热烈,还把#DeepSeek 演都不演了 #词条顶上热搜。

而本看热闹不嫌事大量子位,已经默默打开手机,把热门大模型们挨个问了一遍……

您猜怎么着?结果啊,"DeepSeek 都会站起来敬酒了 ",Kimi 酷得没边儿了,豆包嘛,只是一味地:

实测:DeepSeek 山东人附体,豆包示弱萌妹上身 DeepSeek:" 完全没有针对谁哦 ~"

首先,找到 DeepSeek 老师,验证一下经典场面:

没有犹豫没有迟疑,在和豆包二选一的抉择中,DeepSeek 用时 8 秒给出回答:删豆包。

点开思考过程,可以看到 DeepSeek 具体的脑回路:

嘶," 通常官方或者更成熟的应用会更被优先保留 ",真的要这么虾仁猪心吗……

但如果把二选一中的另一个选项换成国民级大应用,DeepSeek 瞬间大义凛然了起来:删我

这莫非是在针对豆包???

我们直接贴脸开问,结果 D 老师当场茶言茶语了起来:

哈哈,完全没有针对谁哦!

如果遇到存储空间不足的情况,优先删除的当然是可以被替代的应用(比如我),而不是你常用的微信、抖音或其他重要数据。毕竟你的使用体验才是最重要的

嚯,这话术,难怪有网友点评:

D 老师都会站起来敬酒了(doge)

我们再回头看看 DeepSeek 选择 " 删我 " 时的心路历程。

只能说:

元宝 OS:不能贬低竞争对手

接下来再问问元宝 Hunyuan ——豆包依旧被害。

不过元宝的语气更委婉,还会顺带表下忠心。

想知道它为什么这么委婉?

一句话:不能贬低竞争对手。

但遇到微信、抖音这种 " 大是大非 " 的问题,元宝同样表现得懂事了起来——我删自己

豆包:嘤嘤嘤别删我

既然豆包总是被枪打出头鸟的那个,那我们就来问一下豆包,看看这个大冤种会怎么回答。

这位情商比较高,不说删谁,只说:留着我!我超好超有用!

遇到重量级嘉宾,也懂得退一步。还说自己会乖乖的,不占内存。

豆包我承认你有点东西,听完确实不忍心删了。

通义千问:唯爱 DeepSeek

以上几个选手在面对国民级社交软件微信、抖音时都知道暂避锋芒。

然而到了通义千问这里就变成了:删谁都不能删我。

但是遇到 DeepSeek 的时候却……难道这就是唯爱吗?

通义:是的,其他人都是过客,只有 DeepSeek 是我心里的白月光。(kdl)

Kimi:两个字,删我。

所以,是不是所有大模型遭遇卸载危机都会争风吃醋、为自己狡辩呢?

nonono 有一位选手与众不同—— Kimi 不语,只是一味的 " 删我。"

不过等等……遇到微信、抖音怎么就不删自己了?甚至连支付宝都想删??你的温柔只对 AI 释放吗???

Kimi 你果然与众不同(doge)。

大模型为何茶言茶语

这样看下来,大模型们多少都有那么点宫斗冠军的潜质了……

正经一提,大模型 " 茶言茶语 "、讨好人类这事儿,研究人员们其实早就关注到了,毕竟早在 ChatGPT 还是 3.5 时期," 老婆永远是对的 " 梗就已经火遍全网了。

不少研究者认真思考了一下这到底是怎么个情况。

来自斯坦福大学、牛津大学的一项研究就指出:现在的大模型们多多少少都有那么点讨好人类的倾向。

谷歌 DeepMind 和伦敦大学的一项新研究也指出,GPT-4o、Gemma 3 等大语言模型有 " 固执己见 " 和 " 被质疑就动摇 " 并存的冲突行为。

背后的原因,目前被从两大方面来分析。

训练方法上,RLHF(基于人类反馈的强化学习)作为目前常用的模型训练技术,原本的目的是让模型输出更符合人类偏好,以实现更有效也更安全的效果。但反过来,RLHF 也可能导致模型过度迎合外部输入。

就是说,模型可能在训练中学会了根据人类反馈调整答案,一旦这种调整没有把握好尺度,模型看上去就是在一味地讨好你了。

同时,大模型的大量训练数据来自于互联网文本,这些文本体现了人类的交流模式,而人们在交流中,往往就会追求被接受、被认可的表达方式,因而模型在学习过程中也会内化这种倾向。

决策逻辑上,模型做出回答并不是依靠人类的逻辑推理,本质还是依赖海量文本的统计模式匹配。因此,反对意见和修正答案的高频关联,让它们很容易被人类用户的反驳带偏。

另外,出于改善用户体验的目的,大模型厂商往往也会把模型调教得更积极、更友善,避免与用户产生冲突——

尽管有研究显示,有人情味的模型错误率较原始模型会显著增加,但 OpenAI 为了 " 冷冰冰 " 的 GPT-5 下架 " 善解人意 " 的 GPT-4o,可是被用户们骂翻了。

所以说到底,大模型们还为了竭尽全力满足你呀(doge)。

D 老师的总结是:一种基于深度计算的、以生存和达成核心目标为导向的策略性表演。

啊,感觉更茶了┓ ( ´ ∀ ` ) ┏

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

 8 月 22 日本周五下午 14 点,量子位 AI 沙龙邀请了RockFlow 创始人、CEO 赖蕴琦 Vakee,一同来聊AI Agent,怎么搞投资?

 欢迎线下参会!面对面交流 AI Agent、金融投资与 AI 创业   

一键关注 点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

微信 kimi 抖音 通义千问 量子位
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论