在通往 AGI 的道路上,人类欠缺的是一种合适的编程语言?
华盛顿大学计算机学院教授 Pedro Domingos 在最新的独作论文中表示,当前 AI 领域使用的编程语言,无一例外全都存在缺陷。
同时,Domingos 还提出了一种新的统一语言,将 AI 逻辑统一成了张量表示。

这篇论文,将逻辑推理转化为纯张量代数,消除了主流人工智能模型中离散逻辑与连续梯度之间的界限,让演绎和神经计算使用同一种语言。
其中没有符号或启发式命令,仅靠数学就实现了逻辑与学习的融合,使神经网络能够以符号精度进行推理、符号系统像神经网络一样学习。
Domingos 本人也自我评价称,他通过这篇新作,发现了通往 AGI 的道路。

Domingos 对自己的成果非常自信,有网友询问能不能用这套系统来做 Vibe Coding,而 Domingos 的回答是," 比 Python 强太多 "。

"AI 显然还没有找到它的语言 "
在论文中,Domingos 把当前 AI 领域使用的语言全都批判了一番,认为它们全都存在缺陷。
首当其冲的就是现在最常用的 Python,Domingos 认为其 " 从未为 AI 设计 "。
具体来说,虽然像 PyTorch 和 TensorFlow 这样的库提供了自动微分和高效的 GPU 实现,但它们对自动化推理和知识获取 " 毫无帮助 "。
这导致在这些功能上只能依靠 "hacky attempts"(拼凑式的临时方案),既不系统,也不高效。
其他语言也有各种各样的问题。
比如早期的 LISP 和 Prolog 等 AI 语言,虽然 " 使符号 AI 成为可能 ",但缺乏可扩展性和对学习的支持。
图模型虽然为概率 AI 提供了 " 通用语言 "(lingua franca),但其推理成本高昂,限制了实际使用;Markov 逻辑这类融合符号与概率 AI 的形式系统,也是因推理代价而受限。
作者还批评神经符号 AI 试图将深度学习与符号 AI 结合的做法,认为这完全是将两者的糟粕 " 完美结合 "。
研究了这一圈之后,Domingos 得出结论—— "AI 显然还没有找到它的语言 "。
那么,AI 到底需要一种什么样的语言呢?
统一张量方程表达神经网络
Domingos 提出了一种全新的 AI 编程语言框架,名为 Tensor Logic,作者认为它有潜力成为整个人工智能领域的 " 母语 "。
Tensor Logic 的目标,就是提供一个统一表达神经网络与符号推理的语言体系,让学习、推理与知识表示在同一个数学框架中自然展开。
这样做的原因是 Domingos 认为逻辑规则与张量运算中的爱因斯坦求和(Einstein summation)在结构上是等价的,逻辑程序中通过连接条件和投影来进行推理,而这些都可以用张量乘法与求和表达出来。
以 Datalog 为例,规则中的 " 如果 A 且 B,则 C" 可以看作是两个布尔张量的 join 操作,再通过投影消去中间变量得到结果张量,最后通过一个 step 函数判断该路径是否存在。

这种等价性意味着,传统的符号逻辑推理过程完全可以转换成张量运算,不再需要专门的逻辑引擎。
与此同时,神经网络的结构也天然适配这种表示方式。
无论是多层感知机的线性变换与激活函数、RNN 的时序递归、CNN 的卷积操作,还是 Transformer 中的注意力机制和归一化操作,都可以用一组张量方程串联起来表达。

换句话说,Tensor Logic 用一套语言结构,同时覆盖了逻辑编程与深度学习的计算图。
整个语言的表达、推理与学习过程都通过张量的连接(join)、投影(projection)和非线性变换完成,不包含任何传统编程语言中的控制结构、关键字或多样化语句类型。
语言中每一条语句都是一个张量等式,左边是待求张量,右边是由其他张量构成的表达式。
张量之间通过爱因斯坦求和约定进行乘法和求和操作,未出现在等式左侧的索引自动被求和,出现在左侧的索引表示保留维度。
可选的非线性函数(如 step、sigmoid、softmax)可作用于右侧表达式的结果,实现激活、归一化或阈值判断。
由于每条语句都是张量之间的运算,整段程序天然可以进行自动微分,也无需区分 " 程序结构 " 和 " 模型结构 "。
此外,作者还提出在嵌入空间中进行逻辑推理的机制。
对象的向量表示可以通过张量积组合成关系的表示,而推理过程则是对这些嵌入结构进行组合、投影与匹配。
通过调节激活函数的温度参数,可以实现从精确推理到模糊类比的连续过渡,从而兼顾逻辑的可靠性和神经网络的泛化能力。
那么,Tensor Logic 具体又是如何实现的?
具体实现
Domingos 展示了如何使用 Tensor Logic 以统一的张量方程形式实现多个主流 AI 方法,涵盖神经网络、符号 AI、核方法与概率图模型。
在 Tensor Logic 中,神经网络的每一层都可以用张量方程表示。
例如多层感知机(MLP)通过张量的乘法和激活函数定义隐藏层之间的映射,可用一个三维张量 W 来表示不同层的连接权重。

递归神经网络(RNN)则可利用时间维度上的状态共享,使用 " 虚拟索引 " 实现状态在时间步之间的更新。

卷积神经网络(CNN)通过在图像上滑动小的滤波器窗口,实现位置不变的特征提取。卷积操作通过索引偏移实现,池化操作通过索引除法实现聚合。

图神经网络(GNN)以节点之间的邻接关系表示图结构,用嵌入张量表示每个节点的状态。每一层的传播通过邻接矩阵和特征张量的 join 实现邻居信息聚合,再通过线性变换和激活函数更新自身状态。

Transformer 模型使用注意力机制捕捉序列中远距离依赖,Tensor Logic 用权重矩阵分别计算 query、key、value 向量,并通过注意力分数加权求和。
多个头输出拼接后进入后续的归一化、残差连接和前馈层,每一层的所有结构都是张量级别的操作。

其余像符号 AI、概率、核方法等不同 AI 范式,也都可以纳入这种表达体系中。
总之,Tensor Logic 通过一套统一的张量语法,使不同类型的 AI 系统第一次在语言层面实现了融合。
论文地址:
https://arxiv.org/abs/2510.12269
参考链接:
[ 1 ] https://x.com/godofprompt/status/1978405500485325080
[ 2 ] https://x.com/pmddomingos/status/1978333248888480079
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
年度科技风向标「2025 人工智能年度榜单」评选报名开启啦!我们正在寻找 AI+ 时代领航者 点击了解详情
❤️ 企业、产品、人物 3 大维度,共设立了 5 类奖项,欢迎企业报名参与
一键关注 点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦