深眸财经 07-30
从IMO「抢跑」到AI「幻觉」:技术狂欢下的认知陷阱
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

SHEN MOU

作者:高藤

原创:深眸财经(chutou0325)

28 日晚,许多人都在关注的第 66 届国际数学奥林匹克竞赛(IMO)公布了比赛结果。

中国队不出所料地夺得头筹,斩获 6 枚金牌。其中更是有两位同学获得满分,以 231 分的团队总成绩碾压全场。

对于这一已经预料到的结果,网上反应比较平淡,引发热议的反倒是另一个赛道的 OpenAI。

01

OpenAI" 抢跑 " 背后的幻像

在用于评估 AI 大模型在数学竞赛表现的 MathArena.ai 平台上,对当前最顶尖的 AI 公开大模型进行了测试。

OpenAI 的 o3 与 o4-mini、谷歌的 Gemini 2.5、马斯克家的 Grok-4 以及国产 DeepSeek-R1 等顶流 AI 模型全部出战。

遗憾的是,AI 大模型在这届 IMO 上全军覆没。

在这场比拼中,得分最高的是谷歌 Gemini 2.5 拿到 13 分,也就是 31% 的分数,连铜牌都够不上。

就在大家纷纷认为这就是目前 AI 的上限时。

OpenAI 团队带着最新开发的通用推理模型,抛出了一颗重磅炸弹:

在与人类完全相同的考试条件下作答,最终解出 5 道题,共获得 35 分,达到 IMO 金牌分数线,成功拿到了金牌!

但事实真的是这样吗?

首先引发大家争吵的就是消息发布的时间。

按照 IMO 的规定,所有成绩都应该在 IMO 闭幕的一周后再发布。

结果当地时间 19 日下午 5 点 43 分,闭幕式一结束,5 点 50 分 OpenAI 的官方就发布了 "AI 刚好压过金牌线 " 的消息。

七分钟之差,既让 OpenAI 钻了规定的空子,还先其他参赛选手一步,在网络上掀起了轩然大波。

这一行为让不少网友为其他真实竞争对手打抱不平,毕竟抢跑的行为,本身就是对竞争对手的不尊重。

其次就是,金牌是谁认证的?

虽然官方一直说的都是 "OpenAI 压上了金牌及格线 ",但不少媒体为了省事,直接写成 "AI 夺得金牌 "。

此外,OpenAI 并未接收到任何参加 IMO 的邀请,更不用说究竟是谁给 AI 评出的 35 分好成绩。

这就相当于自己在家里做了一套高考真题,对照答案评分后,得出了一个我是高考状元,能上清华的结果。

国外有 OpenAI 以 " 夺冠 " 炒作,国内也有 AI 写高考作文吸睛。

今年高考语文考试一结束,各大 AI 公司迫不及待地让自己的 AI 助手开始考试。

豆包、腾讯元宝、天工……一共 16 款产品,都在网上发布了自己写的作文。

面对 AI 写出来的作文,不少人站出来说 " 我觉得 AI 比我强 "。

每每在这种测评的关键时刻,AI 都会以出色表现 " 出圈 "。

但到了生活中,AI 假大空的想法、胡乱编造的数据、古今中外虚实大乱炖的文章模板,甚至连 AI 造假的事也层出不穷。

就算这样,AI 的使用率仍在不断增长。

从学生用 AI 代写论文,到上班白领依赖 AI 生成报告,再到媒体行业机器人撰稿占比突破 40%,人类正经历一场前所未有的 " 思考能力危机 "。

02

思维惰性引发认知陷阱

AI 写高考作文、压线夺冠,每一次 " 出圈 " 都像是精心策划。

抛开网络上营销号对 AI 的呼声,值得让我们思考的并不是 AI 会不会代替人类,而是我们总是习惯把思考的机会全部甩给 AI,自己坐享其成。

以 Cision 发布的《2025 全球媒体调查报告》为例,通过对 19 个国家 3,126 名记者的调研发现,53% 的记者已在工作中使用生成式 AI 工具。

在其他使用 AI 进行辅助的领域中,教育行业首当其冲:

国内的某高校调查显示,使用 AI 辅助学习的学生中,仅 28% 能独立完成复杂逻辑推导,较五年前下降 45%。

神经可塑性研究表明,长期依赖 AI 会导致大脑神经网络重构,前额叶的决策区域活跃度下降 20%,视觉皮层的信息处理区域却变得异常活跃。

换句话说,使用 AI 大量处理认知工作,会让工作者参与创新所需的深层分析的过程大幅减少,思维出现 " 断片 " 现象,产生认知依赖症。

还会缩小人脑思考和机器思考之间的差距,弱化原创观点和创造性方法所带来的价值。

除此之外,过度相信 AI 的建议,可能会失去辨别能力,导致错误信息风险增加。

AI 之所以能够高效产出内容,就是因为它直接搬运或者套用海量数据库中的表面规律,但却不会主动核实事实。

2023 年,纽约市协助政府服务的 AI 聊天机器人,建议企业主扣除员工消费来获利,但真实的法律却明确规定了老板不能扣取员工的小费。

再比如,政策明确规定企业必须接受现金,不得歧视没有银行账户的客户。但是 AI 却说 " 餐厅可以不提供现金付款选择 "。

在面对具有信息变量的情况下,尤其是在涉及多变量分析时,AI 就可能生成看似专业但逻辑不自洽的内容。

如果不仔细甄别,这种 " 幻觉 " 现象不仅会误导用户,增加错误信息的风险,还可能引发信任危机。

所以说,AI 使用率的不断提高已成必然,但我们该做的不仅是改进算法,让人工智能更好的服务人类,而是如何才能在享受便利和坚守认知之间找到平衡。

03

以 AI 治理 AI

首先,利用 AI 自身的算法能力,来监管、优化和安全应用 AI 技术。

我们常见的 AI 主要分为,基于模板的自动化生成,和基于深度学习技术的自动化生成,这两种类型。

而训练 AI 的原材料就是数据。

以 Open AI 的第一个大模型 GPT1 为例,它有 1.17 亿个参数,到了 GPT2,有 15 亿个,而 GPT3 则增长到了 1750 亿个,GPT4 的参数更是达到令人震惊的 1.8 万亿个。

巨大的参数数量决定了 AI 模型如何对输入数据做出反应,从而决定模型的行为。

将 AI 的行为举止具象化,可以增进用户对 AI 技术的理解,识别其潜在的偏差,有助于平衡用户对 AI 的信任度和依赖度。

其次,还可以利用 AI 技术研究用户的心理机制,成果可以作为改进 AI 模式的参考,避免引发引发过度依赖。

AI 技术通过自然语言处理和情感计算,能够实时分析用户的语言、语音和行为模式,识别潜在的心理健康风险。

例如养老院使用机器人,通过声波震颤识别老人的孤独指数,辅助早期筛查抑郁倾向。

在过度依赖 AI 的防控上,同样可以运用它的算法,通过分析用户的使用频次、情感表现、面部表情等,来提供特定的 "AI 戒断 " 方法,降低用户的依赖程度。

结语:AI 的发展已成必然,频频 " 出圈 " 的背后不再只是算法的精进,还有认知主导权的易主。如何在技术狂欢与认知危机交织的时代始终保持警惕,避免沦为算法的附庸,才是人类驾驭科技的关键。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 谷歌 考试 作文 高考
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论