在 AIGC 技术飞速发展的背景下,只需一行简单的 prompt 就可生成高逼真内容,然而,这一技术进步也带来了严重的安全隐患:虚假新闻、身份欺诈、版权侵犯等问题日益突出。AI 生成图像检测也成为了 AIGC 时代的基础安全能力。
然而在实际应用中, 存在一个 " 尴尬 " 现象:检测器往往在 " 考场 "(公开基准数据集)上分数耀眼,一旦换到 " 战场 "(全新模型或数据分布),性能会大幅下降。
近日,腾讯优图实验室联合华东理工大学、北京大学等研究团队在 A 生成图像检测(AI-Generated Image Detection)泛化问题上展开研究,提出 Dual Data Alignment(双重数据对齐,DDA)方法,从数据层面系统性抑制 " 偏差特征 ",显著提升检测器在跨模型、跨数据域场景下的泛化能力。
目前,相关论文《Dual Data Alignment Makes AI-Generated Image Detector Easier Generalizable》已被 NeurIPS 2025 接收为 Spotlight(录取率 Top 3.2%)。

发现:AI 图像检测器其实只是在 " 识别训练集 "
研究团队认为问题的根源可能在于训练数据本身的构造方式,使得检测器并没有真正学会区分真假的本质特征,而是 " 走了捷径 ",依赖于一些与真伪本身无关的 " 偏差特征 "(Biased Features)来做出判断。
这些偏差特征是真实图像与 AI 生成图像在训练数据收集过程中产生的系统性差异。具体来说:
真实图像:来源渠道复杂,清晰度与画质参差不齐;分辨率分布分散;几乎都以 JPEG 格式存储,并带有不同程度的压缩痕迹。
AI 生成图像:呈现出高度统一的模式,分辨率常集中在 256 × 256、512 × 512、1024 × 1024 等固定档位;并且大多以 PNG 等无损格式存储;画面干净,没有明显压缩痕迹。
在这样的数据构成下,检测模型可能会去学习 " 投机策略 ",例如PNG ≈假图,JPEG ≈真图。这种 " 捷径 " 可以在某些标准测试集(如 GenImage)上甚至可以达到 100% 的检测准确率,然而一旦对 AI 生成的 PNG 图像进行简单的 JPEG 压缩,使其在格式和压缩痕迹上接近真实图像,这类检测器的性能就会出现 " 断崖式下跌 "。
对比真实图像和 AI 生成图像,两者可能存在格式偏差、语义偏差和尺寸偏差:

解法和思路
针对这一问题,研究团队认为如果数据本身带有系统性偏差,模型设计的再复杂也难免 " 学偏 "。因此提出了 DDA(双重数据对齐,Dual Data Alignment) 方法,通过重构和对齐训练数据来消除偏差。其核心操作分为三步:

像素域对齐(Pixel Alignment)
使用 VAE(变分自编码器)技术对每一张真实图像进行重建,得到一张内容一致、分辨率统一的 AI 生成图像。这一步操作消除了内容和分辨率上的偏差。

频率域对齐(Frequency Alignment)
仅仅像素域对齐是不够的,由于真实图像大多经过 JPEG 压缩,其高频信息(细节纹理)是受损的;而 VAE 在重建图像时,反而会 " 补全 " 这些细节,创造出比真实图像更丰富的高频信息,这本身又成了一种新的偏差。
实验也证实了这一点:当研究者将一幅重建图像中 " 完美 " 的高频部分,替换为真实图像中 " 受损 " 的高频部分后,检测器对 VAE 重建图的检出率会大幅下降。
因此,关键的第二步是对重建图执行与真实图完全相同的 JPEG 压缩,使得两类图像在频率域上对齐。

Mixup
最后采用 Mixup 将真实图像与经过对齐的生成图像在像素层面进行混合,进一步增强真图和假图的对齐程度。

经过上述步骤,就能得到一组在像素和频率特征上都高度一致的 " 真 / 假 " 数据集,促进模型学习更泛化的 " 区分真假 " 的特征。
实验效果
传统的学术评测往往是为每个 Benchmark 单独训练一个检测器评估。这种评测方式与真实应用场景不符。
为了更真实地检验方法的泛化能力,研究团队提出了一种严格的评测准则:只训练一个通用模型,然后用它直接在所有未知的、跨域的测试集上评估。
在这一严格的评测标准下,DDA(基于 COCO 数据重建)实验效果如下。
综合表现:在一个包含 11 个不同 Benchmark 的全面测试中,DDA 在其中 10 个 上取得了领先表现。
安全下限(min-ACC):对于安全产品而言,决定短板的 " 最差表现 " 往往比平均分更重要。在衡量模型最差表现的 min-ACC 指标上,DDA 比第二名高出了 27.5 个百分点。
In-the-wild 测试:在公认高难度的真实场景 "In-the-wild" 数据集 Chameleon 上,检测准确率达到 82.4%。
跨架构泛化:DDA 训练的模型不仅能检测主流的 Diffusion 模型生成的图像,其学到的本质特征还能有效泛化至 GAN 和自回归模型等完全不同,甚至没有用到 VAE 的生成架构。

无偏的训练数据助力泛化性提升
在 AI 生成图像日益逼真的今天,如何准确识别 " 真 " 与 " 假 " 变得尤为关键。
但 AIGC 检测模型的泛化性问题,有时并不需要设计复杂的模型结构,而是需要回归数据本身,从源头消除那些看似微小却足以致命的 " 偏见 "。
" 双重数据对齐 " 提供了一个新的技术思路,通过提供更 " 高质量 " 的数据,迫使这些模型最终学习正确的知识,并专注于真正重要的特征,从而获得更强的泛化能力。


登录后才可以发布评论哦
打开小程序可以发布评论哦