量子位 08-20
DiT突遭怒喷,谢赛宁淡定回应
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

什么?有人提出 DiT 是错的?

这个被认为是扩散模型领域核心基石的 DiT,竟然被质疑了。

这位网友表示,不仅数学上是错的,形式上是错的,甚至怀疑 DiT 根本就没有 Transformer?!

一石激起千层浪,网友们速速来围观。结果作者谢赛宁本人都立马站出来回应:

虽然知道楼主是标题党,但我还是忍不住要回应一下。

每个研究者都希望发现自己模型的不足,这是科学进步的动力。如果模型从未出错,反而值得担忧。

评价 DiT 需要提出假设、做实验、验证结果,而不是凭想象臆断,否则结论不仅可能错误,甚至完全不具科学性。

哇哦,先抨击了标题党,又强调了科学精神和实证方法的重要性,真的是很中肯的一番回应。

回过头来,咱先了解一下 DiT 为啥那么厉害。

要知道,早在 Transformer 占尽风头时,U-Net 在扩散模型领域仍然一枝独秀——

这时,DiT(Diffusion Transformers)横空出世,将 Transformer 与扩散模型融合,在计算效率和生成效果上均超越了基于 U-Net 的经典模型 ADM 和 LDM,同时把 Transformer 扩展到了图像视频领域。

如果 DiT 真错了,大量依赖 DiT 的生成模型都要崩塌,整个领域都得重新审视。

下面让我们来扒一扒这位网友针对 DiT 提出了哪些质疑。

关于 DiT 的可疑之处

他的观点均来源于论文《TREAD:Token Routing for Efficient Architecture-agnostic Diffusion Training》

这篇论文主要提出一种Tread 策略,能够将早期层随机选取的 token 传递至模型的更深层。

值得注意的是,这种方法并不限于常见的 Transformer 模型,同样可以应用于状态空间模型,且无需对架构进行修改,也无需引入额外参数。

那网友是如何通过这篇论文质疑 DiT 的呢?

其一,他首先借助论文中的一张图对 DiT 提出了质疑,认为 DiT 架构本身就能轻松学会数据集—— FID 迅速降低,这说明架构里有某种隐含特性。

其二,上图表明 Tread 模型比 DiT 在 40 万次训练迭代上快 14 倍,比 DiT 在 700 万次迭代时的最佳表现快 37 倍。

由此,这位网友直接抨击,小幅度提升效果可能只是优化,如果提升幅度巨大,就是在否定之前的方法。

其三,质疑者还提出不要使用 DiT。

如果你非得在训练时 " 切掉部分网络 ",也就是用学习机制把它彻底禁用,那你的网络基本上就废了。

其四,研究表示,在训练过程中,DiT 中被恒等替换的网络单元越多,模型评估反而更好。

其五,DiT 整个架构都后置层归一化,扩散过程会产生动态范围极高的实际输出。

因此,需要使用对数尺度来表示采样开始和结束时的信噪比差异。

其六,针对 Adaptive Layer Normalization(自适应层归一化)方法,尽管模型叫 DiT,但在处理条件输入时,只是走了普通的 MLP 流程。

能看到的只是 label_y → timestep_t → embed → conditioning → MLP → bias terms,根本看不到 Transformer 的任何痕迹。

上面 6 条对 DiT 的反驳,都可以说是有理有据,甚至图文并茂。

那谢赛宁是如何回应的呢?

谢赛宁回应 Tread 与 "DiT 是错的 " 毫无关系

首先,谢赛宁对 Tread 模型的工作给予了肯定(人情世故)。

他认为 Tread 更像是随机深度(stochastic depth),其能收敛完全是因为正则化对特征稳健性的提升。

他还指出,尽管 Tread 模型挺有趣的,但与原帖作者所谓的 "DiT 是错的 " 的论断毫无关系。

谢赛宁强调,Lightning DiT 作为一种经过验证的强大升级(采用 swiglu、rmsnorm、rope、ps=1),只要条件允许,都推荐优先使用该版本。。

此外,目前还没有证据表明后置层归一化会引发问题。

回击完了质疑者,谢赛宁还不忘总结了一下自己的工作。

他表示:

过去这一年,最大的改进集中在内部表征学习(internal rep learning)上。

REPA(Representation Alignment)算是我们最早提出的方法,但现在已经有更多实现方式,比如:tokenizer 级别的修正(如 va-vae、REPA-E)、将语义 token 拼接到噪声潜变量中、解耦架构(如 DDT)、正则化方法(如 dispersive loss)或自表征对齐(self-representation alignment)等等。

其次,他们团队在训练模型时,始终采用随机插值 / 流分配来提升训练效果,而 SiT 则被用作基准方法来评估其他方法是否有效。

在 DiT 中,时间嵌入最好使用 adaln-zero,需注意的是,使用 adaln-zero 时最好共享参数,否则会白白浪费 30% 参数,而对于更复杂的分布(如文本嵌入),则使用 cross-attention。

最后,谢赛宁也是直接提出 sd-vae 才是 DiT 真正的症结所在,处理 256 × 256 分辨率的图像竟需 445.87 GFlops,还不是端到端的架构。

目前,像 va-vae 和 repa-e 这类方法只能解决部分问题,但更多改进方案正在不断涌现。

参考链接:

[ 1 ] https://x.com/sameQCU/status/1957223774094585872

[ 2 ] https://x.com/sainingxie/status/1957842855587639369

[ 3 ] https://arxiv.org/pdf/2501.04765

[ 4 ] https://arxiv.org/abs/2212.09748

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

 8 月 22 日本周五下午 14 点,量子位 AI 沙龙邀请了RockFlow 创始人、CEO 赖蕴琦 Vakee,一同来聊AI Agent,怎么搞投资?

 欢迎线下参会!面对面交流 AI Agent、金融投资与 AI 创业   

一键关注 点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

adm 效果
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论