
2025 年,全球 AI 领域风起云涌。
通用人工智能(Artificial general intelligence,AGI)开始祛魅,超级人工智能(Artificial Super Intelligence,ASI)开始登上舞台。
Anthropic 高管 Jack Clark 警告:巨变在即,而 AI 将把世界撕裂为两个平行宇宙。
这一切都是一个长期发展过程的产物,是 AI 技术、资本、就业和生活交织变革在一起的产物。
AI 模型能力跃升,但距离 AGI 仍有争议:研究显示,2025 年 AI 模型在推理、多模态处理和智能体上取得显著进步。
投资热潮推动基础设施扩张:全球 AI 投资激增,生成 AI 吸引 339 亿美元资金,科技巨头资本支出达 4000 亿美元,引发了泡沫担忧和能源消耗讨论。
劳动力变革加速,机遇与挑战并存:AI 正重塑职场,使用 AI 工具可能成为求职关键。
应用扩展到日常生活,却未彻底颠覆:AI 智能体和机器人进入生产、医疗等领域,似乎提升了效率,但许多人感受到变化有限。
通用人工智能不是终点,超级智能才是起点。
当真正的 AI 竞赛始于通用人工智能之后!
AI 一年,人类千年
至今,自然界的一切智能都是生物智能,都是碳基智能。
但今年的 LLM 可能是人类有史以来第一次创造出的全新智能形态。
在 2025 年度回顾中,Karpathy 直言:
2025 年是我(以及我认为整个行业)首次开始以更直观的方式内化理解 LLM 智能的「形态」。

在推理、多模态处理和智能体上,2025 年 AI 模型取得了显著进步,如 OpenAI 的 o3 系列和 Google 的 Gemini 3。
虽在实际应用中仍存局限性,但 AGI 曙光现已成为今年行业的共识。
在一系列技术任务中,从 ChatGPT 到 Gemini,许多世界领先的 AI 模型正超越人类基准线。
据斯坦福大学《2025 年 AI 指数报告》,AI 已在 7 项测试中超越人类基准线,这些测试衡量的任务包括:
图像分类
视觉推理
中等阅读理解
英语语言理解
多任务语言理解
竞赛级数学
博士级科学问题

目前,AI 系统唯一尚未赶上人类的领域是多模态理解与推理。这项任务涉及跨多种格式和学科(如图像、图表、图解)进行处理和推理。
然而,这一差距正在迅速缩小。
MMMU 基准测试,评估模型在需要大学学科知识的跨学科任务上的表现。

MMMU 数据集的四大特性:(1)全面性:涵盖六个广泛学科领域与 30 个大学科目,包含 1.15 万个大学难度级别的问题;(2)图像类型高度异质:包含极其多样化的图像类型;(3)图文并茂:文本与图像交错混合,需要跨模态理解;(4)专家级感知与推理:要求具备扎根于深厚学科知识的专家级感知与推理能力。
此基准测试日益饱和:
在 2023 年底,谷歌 Gemini 的得分仅为 59.4%。
到 2024 年,OpenAI 的 o1 模型取得了 78.2% 的分数。
今年,Gemini 3 Pro 在增强版 MMMU-Pro 上取得了 89.8% 的得分。

斯坦福 AI 指数报告显示,生成 AI 投资达 339 亿美元,同比增长 18.7%。
前沿实验室每 8-12 周发布新模型,OpenAI 的 o3 系列(包括 o3-mini)以「先思考后回答」的推理机制脱颖而出,使用 10 倍 token 提升智能,但成本也相应增加。
谷歌的 Gemini 3 被誉为多模态巅峰,能处理文本、图像、视频和音频,实现深度推理。
在 Reddit 上,年初,关于前沿 AI 模型开放获取的讨论十分热烈。
DeepSeek-R1 及其开源蒸馏版本主导了相关话题。不过,用户指出本地可运行的版本是蒸馏模型(8B 或 32B 参数)而非完整的 671B 版本,其性能大致相当于 GPT-3.5 水平。
更深层的讨论焦点在于 DeepSeek 的开源决策——尽管据报道其实现了 45 倍的训练效率提升。
随后,有研究者在 3B 参数模型上以低于 30 美元的成本复现了 DeepSeek-R1-Zero 的强化学习训练方案。

通用人工智能测试基准 ARC-AGI-1,最佳成绩超过近 90%;ARC-AGI-2 上,AI 超过了人类平均水平。

但 Yann LeCun 指出,自回归 LLM 有局限,需更多感官数据。
总体,2025 年 AI 从「聊天机器人」转向「智能体」,如 Agentic AI,能自主规划和执行任务。
AGI 决赛在未来 2-3 年
如果说前几年是「把模型做大」,2025 年更像是「把模型落地」。
围绕代码、推理、多模态、长上下文与企业可用性,国外几家 AI 巨头争分夺秒,寸土必争。
关于 AI 未来的讨论,变得越来越宏大而真实。科技领袖们越来越多地谈及追求通用人工智能(AGI)乃至最终的超人工智能。
AGI 指能在广泛任务中匹敌人类智能的 AI 系统,而 ASI 则指超越人类能力的系统。

六月,扎克伯格成立 Meta 超人工智能实验室,瞄准「个人超级智能」。

九月,奥特曼表示社会需为 2030 年前可能出现的 ASI 做好准备。

Anthropic 现任 CEO 坚信,到 2027 年,AI 将在「几乎所有领域」超越人类。
而以乐观预测著称马斯克更是断言,明年 AI 的智力将超越最聪明的人类。
这些科技巨头不愿错过 AI 浪潮。
扎克伯格称,宁愿「冒险误投数千亿美元」,也不愿在超智能时代落后。
以 6320 亿美元净资产位居世界首富后,马斯克告诉 xAI 全体员工:
若能挺过未来两到三年,xAI 则有望成为 AI 的胜利者。
Databricks CEO 等领袖认为行业已实现 AGI,而 DeepMind 联合创始人哈萨比斯等则更谨慎,称 AGI 可能「在未来五到十年内」到来。
尽管时间表存在分歧,科技领袖们普遍认同一点:AI 进步正在加速叠加。
这种加速肉眼可见。
一年内,OpenAI 发布了约 30 多项新产品和重大更新 :
年初:高效模型和智能体(如 Operator、o3-mini);
年中:多模态和智能体工具(如 Sora 2、AgentKit);推出开放权重模型(如 GPT-OSS)和 GPT-5;
年末:优化专业任务(如 GPT-5.2 系列)和创意工具(如 ChatGPT Images)。
谷歌、Anthropic 和 xAI 也各领风骚:

在年初看来宛如魔术的功能,如今已习以为常。
中国开源 AI 崛起
DeepSeek 年度最大黑马
2025 年,开源社区也热闹非凡。
围绕 LLaMA、DeepSeek、Mistral 以及各类大模型方案,出现了大量工程化工具链:从微调(fine-tuning)框架、推理加速、到本地部署一体化方案,门槛持续下降。
中国开源模型崛起,Llama 彻底出局。

DeepSeek 成为年度最大黑马。DeepSeek-R1 成为历史上第一个通过同行评议的大模型,喜登 Nature 封面;创始人梁文锋入选 Nature 年度 10 大人物。
Mamba 在初期备受关注后,逐渐淡出视野,在研究之外缺乏实际应用。
Reddit 网友指出,虽然 Mamba 在理论上展现出潜力,但 Transformer 模型已在硬件和软件层面深度优化,使得用未经验证的架构重新训练大型模型在经济上难以证明其合理性,特别是当结果与现有模型相当或更差时。
甚至 Mamba 的实际性能与优化后的 Transformer 模型相当或更差。
成熟的 Transformer 软件生态系统带来了巨大的转换成本,且 Mamba 的固定状态内存无法选择性地检索被忽略的 token。
在计算机视觉领域,Vision Transformer 是否已取代 CNN 的问题仍存在争议。
Reddit 讨论显示,Transformer 在许多任务中越来越受青睐,并在大数据集上表现出色,但 CNN 和混合架构在小数据集、医学影像和特定领域仍具竞争力。
Reddit 网友指出 ConvNeXt 是强有力的替代方案,Transformer 需要更多内存且难以处理可变图像分辨率,数据集质量比架构选择更重要。
为未来做好准备
在过去一年中,记者 Lee Chong Ming 倾听了超过 50 位科技领袖关于人工智能的深度讨论。
从执掌万亿级企业的巨头到押注 AI 未来的年轻创业者,他们的洞见揭示了 AI 如何重塑工作生态与未来走向。
在董事会、行业峰会与播客访谈中,除了 AI 在加速,还有 3 大最常见的观点。

1. 善用 AI,否则你可能被更懂 AI 的人取代
英伟达 CEO 黄仁勋今年已多次强调:
每份工作都会受到影响,而且是立刻受到影响。这是毋庸置疑的。你不会被 AI 取代,但你可能会被更善于使用 AI 的人取代。
其他科技领袖也呼应这一观点,有人指出年轻员工可能更具优势,因为他们已习惯使用 AI 工具。
OpenAI 的奥特曼八月在 YouTube 节目「Huge Conversations」中表示,虽然 AI 将不可避免淘汰某些岗位,但大学毕业生更有能力适应变化。
如果我现在 22 岁刚毕业,我会觉得自己是史上最幸运的一代。

奥特曼补充道,他更担忧年长员工将如何适应 AI 重塑的工作环境。
「AI 教母」、斯坦福大学教授李飞飞直言,相较于学位,掌握新工具的能力更重要。

她认为,抗拒 AI 是职业发展的致命伤。在她的初创公司 World Labs 中,她不会雇佣拒绝使用 AI 工具的工程师。
这种转变已在日常工作中显现。
2. 软技能在 AI 时代更具价值
科技领袖们达成的另一共识是:AI 使软技能变得更为重要。
五月,Salesforce 首席未来官 Peter Schwartz 告诉媒体:
最重要的技能是同理心,是与人协作的能力,而非编程知识。 有家长问我孩子该学什么,是否该成为程序员?我说「学会如何与他人合作」。

领英亚太区首席经济学家 Chua Pei Ying 七月也表示,她观察到:对资深员工和应届毕业生,沟通协作等软技能都日益重要。
随着 AI 自动化部分工作、使团队更精干,工作中的人性化部分开始愈发关键。
3. 人类必须居于 AI 的核心地位
许多领袖在 AI 加速发展中反复强调人类掌控的必要性。
微软 AI 负责人苏莱曼表示,超人工智能必须支持而非压制人类自主性。
他在十一月表示,团队正「试图构建人道主义的超人工智能」,并警告比人类更聪明的系统将难以控制或与人类利益对齐。

Anthropic CEO 阿莫代直言 AI 被误用的风险。
在二月,他表示,先进 AI 虽能降低知识工作门槛,但风险与回报同步增长。
我们的负责任扩展政策只关注三大风险领域:AI 自主性、以及化学、生物、放射性与核威胁。
这涉及可能危及数百万人生命的 AI 自主性严重滥用。
被誉为「AI 教父」的杰弗里 · 辛顿八月指出,当 AI 系统超越人类智能时,保护人类将成为核心挑战。
我们必须确保当它们比我们更强大、更聪明时,依然在乎人类。
2025 年 AI 虽未「颠覆一切」,但奠定基础。
Karpathy 称 AI 跨过「英语编程」门槛。
未来,需关注人文超级智能,确保 AI 服务人类。无论你是从业者还是普通人,学习 AI 工具是关键。
这一年,AI 从炒作到现实,提醒我们:技术是工具,智慧在人。


