财联社早知道 08-02
大模型训练进入“后训练时代”,AI编程有望迎来更大突破,这些企业已积累先发优势
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

周五午后 AI 应用探底回升,郑中设计涨停,鼎捷数智、果麦文化涨超 15%,此外万兴科技、杰创智能、赛意信息、汉得信息、易点天下等个股同样涨幅居前。

消息面上,7 月 31 日召开的国务院常务会议审议通过《关于深入实施 " 人工智能 +" 行动的意见》。此外,小米应用商店宣布与字节跳动旗下一站式 AI Agent 开发平台扣子达成合作,打通智能体一键发布能力,进一步拓展 AI 智能体分发服务体系。此次小米应用商店与扣子合作实现平台系统打通,开发者在扣子开发平台完成智能体的创建与调试后,可一键发布至小米应用商店,无需任何额外操作成本。多个事件催化下,AI 应用方向热度上升。

而前几日,财联社 VIP 特邀行业专家全面解读 AI 编程等 AI 应用领域发展现状,7 月 22 日携手蜂网专家带来了 "AI 智能体" 主题的【风口专家会议】,相关公司迎来拉升,一起来看。

问题一:Kimi K2 大模型本次有多大程度的更新?应如何理解其 " 专家数从 256 个提升到 384 个 " 以及 " 降低了 MLA 中的头数 " 这些说法?参数达到万亿级别又是一个怎样的水准?

专家:Kimi K2 的更新程度和万亿参数的水准已经进入了全球大模型竞争的第二梯队,在国内,它属于第一梯队。并且在开源模型领域,参数目前是当之无愧的第一名

其次,关于 " 专家数从 256 个提升到 384 个 ",这涉及到模型能力的评级定义。OpenAI 曾提出 AGI(通用人工智能)的五个能力等级:L1 聊天、L2 推理、L3 代理(Agent)、L4 创新、L5 组织。要达到 L3 的 " 代理 " 能力,模型必须具备自主调用工具的能力,而不再需要通过传统的编程方式来开发 Agent。专家数的提升,正代表了模型能够调用的工具种类和处理问题的颗粒度越来越精细、手段越来越精准。这表明,Kimi 已经开始从 L2 的纯推理能力,向 L3 的代理能力进行演进

再次,关于 " 有效降低了 MLA 中的头数 ",这与 Transformer 模型的架构有关。通常情况下," 头数 "(Heads)的增加意味着计算能力的增强。但我们看到,Kimi K2 在计算能力提升的同时,反而降低了头数,这说明其模型的性价比得到了显著提升。也就是说,它能用更少的计算资源来捕捉更丰富的信息并提升泛化能力。这背后是技术上的突破,也意味着未来在处理同等长度的上下文(如 128K)时,Kimi K2 所需的硬件成本和算力消耗,将可能远低于其他同类模型

问题二:一些券商报告提到 Kimi 在编程方面的表现非常出色,能否介绍一下目前 AI 编程领域在海内外的发展状况?其使用体量和增速如何?

专家:尽管 Kimi 在编程方面表现出色,在国内已是顶尖水平,优于像 DeepSeek-V2 或通义千问 3.0 等模型,但相较于海外的 Anthropic Claude 3.5 或 Google Gemini 等顶级模型,它仍然处于追赶状态。

目前,AI 编程领域的发展遇到了一个瓶颈。通过传统的预训练方式来提升大模型编程能力的方法,已经达到了天花板,其代码生成的成功率和完成率大约在 70% 左右。短期内通过预训练的方式很难再有质的提升。英伟达也发表过相关论文,指出 " 预训练时代 " 已经结束,现在进入了 " 后训练时代 "。

因此,Google、Anthropic、Amazon、OpenAI 等国际巨头,已经不再单纯地追求模型能力的提升,而是转向开发 "Coding Agent" 工具,例如 Google 的 Gemma CLI、OpenAI 的 ChatGPT Context 以及 Anthropic 的 Claude Code 等命令行界面的智能体工具。他们的思路是,从工程学的角度去解决复杂的编程问题,而不是仅仅依赖模型自身的能力。这是行业的一个重要方向转变。然而,目前国内的大厂或初创公司,尚未看到有类似成熟的商用产品出现。

问题三:在 " 后训练时代 ",各大模型厂商会如何训练大模型?现阶段提升大模型能力最重要的方式是什么?AI 编程何时会迎来大的突破?国内哪些企业在这方面有较强优势?

专家:" 预训练时代 " 的目标是 " 大而全 ",即模型知道的越多,能处理的工作就越多。而 " 后训练时代 " 的目标则是 " 小而精 "。这意味着,在处理特定领域的专业问题时,99% 的通用训练数据是无用甚至会产生干扰的 " 信息负担 ",真正需要的只是那 1% 的专业数据。因此,需要对模型进行分拆,这也是各大厂商都在增加其 MoE 模型中 " 专家 " 数量的原因。

目前,大部分 MoE 模型还停留在 " 单层 MoE" 的结构,即一个 " 路由器 " 将任务分配给不同的专家。但 Google 已经提出了新的训练方式,即在专家模型下再设置 " 小专家 ",形成类似任务拆解的层级结构,以期返回更精准的结果。但这还处于探索阶段。

如果从工程学的角度看,AI 编程的突破很可能在今年下半年或明年第一、二季度出现

在国内 AI 编程领域,具备较强优势的是字节跳动(Code-IT 2.0)和阿里巴巴(通义灵码)。它们在 AI 辅助的 IDE 工具这个赛道上,正在快速追赶海外的先进产品。但在更底层的 AI Coding Agent 领域,国内还处于 Demo 阶段,没有真正发展起来。这主要是因为,海外的编程需求相对简单,多集中在 Web 端;而中国的需求则以复杂的 APP 开发为主,这使得 AI 编程工具的实现难度更大

问题四:本次 Kimi K2 开源模型的发布,还可能对哪些下游应用领域带来较大的推动?

专家:首先,随着开源模型能力的提升,企业构建私有领域模型的门槛将大大降低。企业可以通过在 MaaS 平台上部署像 Kimi K2 这样的高性能开源模型,来快速构建自己内部的、针对特定业务场景的私有模型。

这可能会带来 "AI 一体机 " 市场的第二个春天。DeepSeek-V2 的发布曾引发了第一波 AI 一体机的高潮,而 Kimi K2 的出现,可能会再次推动这个市场。但这一次的重点,可能不再是销售新的一体机硬件,而是基于 " 已有的一体机 + 新的高性能模型 " 的应用落地

问题五:除了 Kimi K2,今年还有哪些模型的进展也很不错,并已建立了自身的先发优势?它们各自的优势体现在哪些方面?

专家:在国内市场,无论是开源还是闭源模型,随着像 DeepSeek 和 Kimi 这样的高性能开源模型的出现,已经基本抹平了两者之间的能力差距。对于企业用户而言,选择模型的关键不再是开源或闭源,而是自身的硬件能否支持。因此,通用的闭源大模型可能已经没有太大的发展空间,甚至可能要退出竞争。

未来的机会更多地在于领域模型的开发,即基于高性能开源模型,针对企业内部的税务、法务、编程等特定知识领域进行微调和优化。企业更倾向于由其内部原有的 BI(商业智能)或数据团队来承担这项工作,而不是寻求外部服务商。

此外,在一些非工具类的创意应用领域,可能会迎来一个爆发点。例如,从事文旅项目策划、创意设计等领域的外包团队,生产效率正在急剧提升,成本也在急剧下降,这类创意型工作的产出将有大幅增长。

问题六:除了 AI 编程,还有哪些应用场景目前已经在被 AI 大模型大规模地改变?能否举一些优秀的案例?

专家:有几个领域值得关注。首先是法务领域。例如,在杭州的一些法院,已经在诉前调解阶段引入了 AI 解决方案。通过 AI 的介入,可以帮助消解双方当事人的主观情绪,从而有效提升了诉前和解率。

其次是税务领域。国内一些头部的 SaaS 税务服务公司,已经在内部使用 AI 工具来提升销售能力和解答复杂的税务问题。因为税务规则非常复杂,不同地区、不同城市的政策都可能存在差异,AI 可以提供更精准、更定制化的解答。

但需要强调的是,在法务、税务这类对严谨性要求极高的领域,AI 的 " 幻觉 " 问题依然存在,目前它只能起到辅助作用,最终仍需人工进行复核。

相比之下,在创意领域,例如图片设计、企业宣传海报制作等,AI 已经被大规模应用。像国内的 " 哩布哩布 " 等平台,已经形成了围绕 AI 图片生成的社区生态,用户可以对 AI 生成的海报进行二次、三次创作。同时,像浙江美术学院等高校,也开始将 AI 融入其教学内容中。

问题七:在动画制作和电影制作领域,AI 能否实现大规模的应用和成本降低?

专家:在影视和游戏制作的 " 概念设计 " 阶段,AI 已经可以发挥很大的作用。例如,编剧和导演可以使用 AI 来快速生成故事板、场景概念图等

但在后期的商业化制作环节,AI 的应用还很有限。以游戏制作为例,虽然有很多 AI 工具出现,但主流的游戏引擎,如 Unity 和 Unreal Engine,其整个工具生态和工作流都是围绕 " 人 " 来设计的,开放给 AI 的接口和支持还非常不足。因此,目前 AI 在这些领域的应用,更多还停留在辅助人进行信息检索的层面,而无法真正深度融入生产流程。

问题八:英伟达 CEO 黄仁勋一直强调 " 物理 AI" 的重要性,能否介绍一下什么是物理 AI?国内是否有企业在这方面已有建树?

专家:物理 AI,简单来说,就是让 AI 具备物理世界的感知和交互能力,例如光感、触感等。它与 " 具身智能 " 的概念密切相关。如果说大模型是机器人的 " 大脑 ",那么物理 AI 就是机器人的 " 手和脚 "。

其核心技术是构建 " 物理模型 " 或 " 事件模型 ",这本质上是一种更高级的多模态能力。过去的多模态,主要是将图像、视频等数据向量化后,让模型能够处理。而物理 AI 则需要解决如何将物理世界的各种感知信息进行泛化的数据化处理。

目前,物理 AI 在应用上存在一个天然的壁垒,就是 " 时间 " 或 " 延迟 "。在传统的硬编码编程模式下,机器人执行动作的响应时间是以毫秒计算的。但当需要大模型对复杂的物理感知数据进行处理和决策时,其反馈时间可能是以分钟来计算的。这就是为什么看一些具身智能的演示时,会感觉动作很别扭、一卡一顿的原因——大模型的反馈速度太慢了。因此,如何用更低的成本,实现对物理世界信息的瞬时处理和反馈,是物理 AI 面临的核心挑战。

在国内,目前在人形机器人等具身智能系统上,还没有看到成熟的物理 AI 应用。但在一些特定领域,已经有一些探索。例如,在无人机领域,开始尝试用大模型替代传统的 CNN/RNN 网络来进行障碍物识别。还有一个例子是,一家中国的公司在海外做的除草机器人,会先利用大模型对整个草坪进行扫描,识别出石头、土壤、杂草等,进行路径规划,然后再执行除草任务。也就是说,目前大模型的应用更多还是在 " 离线规划 " 层面,而较少用于 " 实时交互 "。

问题九:在 AI 领域,接下来有哪些值得关注的事件预期?对 OpenAI 的 GPT-5 有怎样的期待?

专家:GPT5 的发布。对它的期待,主要是看它能否实现从 L2(推理)到 L3(代理)能力的跨越。此外,也很期待它在多模态能力,特别是物理感知能力上,是否会有新的突破。根据一些行业消息,GPT5 的内部代号为 "2025-07-13",这意味着其训练数据的截止日期是今年 7 月 13 日,理论上应该很快就会发布。迟迟未发布,可能正是在攻克这些关键的技术难题。它的发布,无疑将为整个行业指明新的发展方向。

问题十:数据标注业务近两年是否会有新的动能?

专家:在 " 后训练时代 ",数据标注,或者更准确地说," 数据服务 ",其重要性反而会凸显。因为 AI 自身还无法有效地筛选和标注数据。未来的核心需求,不再是标注海量的公开数据,而是帮助企业标注其内部的私有数据。例如,税务 SaaS 公司就面临着如何标注企业内部的财务和法务数据的巨大痛点。为企业提供高质量的私有数据标注和处理服务,将是一个巨大的需求点。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai kimi 小米应用商店 人工智能 编程
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论