量子位 04-02
ChatGPT也在评审你的顶会投稿,斯坦福新研究捅了马蜂窝,“这下闭环了”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

尴了个大尬!

人们还在嘲讽有人用 ChatGPT 写论文忘了删掉 " 狐狸尾巴 ",另一边审稿人也被曝出用 ChatGPT 写同行评论了。

而且,还是来自 ICLR、NeurIPS 等顶会的那种。

来自斯坦福的学者对一些顶级 AI 会议(如 ICLR、NeurIPS、CoRL 等)中的审稿意见进行了分析,结果发现——

在 ChatGPT 出现之后,这些同行评论的 "AI 含量 " 大增,最多的高达 16.9%,而有 ChatGPT 之前这个比例大约是 2%。

证据也很直观,AI 常用的词汇出现频率,在 ChatGPT 发布之后噌的一下就上去了。

消息一出,Reddit 的机器学习板块立刻就炸了锅,有网友直呼:闭环了!

在 X 上,也有人发出了同样的疑问:

既然写论文和审稿都是大模型在干,那科学家去干什么了?

那么,这究竟是怎么一回事呢?

顶会审稿意见 AI 含量超 1/6

来自斯坦福大学多个学院以及加州大学圣芭芭拉分校的研究人员发表了一项研究,主题是关于 ChatGPT 对 AI 学术会议同行评审的影响。

研究人员一共分析了 ICLR、NeurIPS、CoRL 和 EMNLP 这四个顶会中的同行评审意见,对其 "AI 含量 " 进行了计算。

ICLR 2024: 估计 α 值为 10.6%

NeurIPS 2023: 估计 α 值为 9.1%

CoRL 2023: 估计 α 值为 6.5%

EMNLP 2023: 估计 α 值为 16.9%,超过了 1/6

α 值指在所有内容中疑似由 AI 生成或 " 显著修改 " 的内容所占的比例

而在 ChatGPT 问世之前,α 值的水平大约是在 2%,作为对照的 Nature 系列期刊评审意见的 α 值则未发生显著变化。

除了得出这些数据,研究人员还发现了 "AI 含量 " 较高的评审意见大多具有一些共同特点。

从内容角度上看,"AI 含量 " 高的意见,引用的作者中包括 "et al." 的学术内容也较少

而且,"AI 含量 " 高的内容,在语义上也更加同质化,比如 "commendable"(值得称赞的)、"meticulous"(细致的)和 "intricate"(复杂的)等形容词大量出现。

同时作者也展示了在 AI 生成的内容中出现最频繁的形容词和副词各 100 个,下图中字号越大代表出现频率越高。

而除了内容本身,高 "AI 含量 " 的内容的作者在行为上也表现出了一些共同之处。

一是提交的时间更加接近截止期限,特别是截止前三天提交的意见 "AI 含量 " 明显更高。

除了提交时间晚,高 "AI 含量 " 意见的作者,普遍对自己提交的内容自信程度也更低

评审者对自己评审意见信心水平的自我评估(满分 5 分)结果显示,"AI 含量 " 较高的审稿人,自我评分也更低(不大于 2 分)。

此外,对自己的审稿意见自信程度低的另一个表现是,他们也较少对论文作者反驳做出回应

在 ICLR 2024 和 NeurIPS 2023 上,这类审稿人中有超过 12.5% 从未对反驳意见做出任何回复,约 10% 只回复了一次。

那么,作者又是如何分析出这些审稿意见中的 AI 含量的呢?

为此,研究人员设计了一种分布式 "GPT 量化 " 方法,能够在语料库级别有效估计 AI 含量,而不必逐篇分析。

首先,研究人员收集了已知由人类编写(ChatGPT 出现前的审稿意见)和 AI 生成(由研究者直接用 ChatGPT 编写)的文本的数据集,作为参考分布。

然后,作者估计了人工编写的(P)和 AI 生成(Q)的内容的 token 分布,尤其重点关注形容词的出现概率。

最后将这种分布模型拟合到未知成分的目标语料库,假设每个文档都是从人类和人工智能分布的加权组合中,即 ( 1- α ) P+ α Q,并使用最大似然估计来推断 α 的值。

完成方法的构建之后,研究者又合成了多组 α 值确定的标准数据集,并在此之上对前面提出的方法进行了验证,结果最大误差仅有 2.4%。

于是,作者使用该方法分析了最近几个会议中的审稿意见,最终得到了前面的结论。

而当这项研究被更多人所得知后,引发了广泛的讨论,其中有不少人对这种现象表达了担忧。

不过,也有人猜测出现这种现象的原因,可能是审稿人母语不是英语,于是用 ChatGPT 对英文写作进行了调整润色。

基于此,有人提问到,用 ChatGPT 来改写而不是直接生成评论也是错的吗?

有人给出了半肯定的答复,但理由不是关乎原创性,而是出于对文本质量的担忧,人们还是应该谨慎使用 ChatGPT。

当然也有人说,科学写作,本身就是 ChatGPT 的一种合理用途。

总之对于这件事,担忧也好宽容也罢,这种现象都已然存在了,而按照原作者的观点,这几个问题是人们应该思考的:

是否应该披露 AI 在同行评审中的使用

在 AI 极具诱惑力的情况下,应该如何激励好的实践

在人工智能同质化的境地下,人们能否保持 " 智力多样性 "

是否应该重新考虑人类 /AI 混合知识工作的可信度

当然了,在学术界,ChatGPT 生成的内容,还远不只是审稿意见。

论文作者也爱用

除了审稿人被曝用 ChatGPT 写评论之外,拿它来写论文的人更是屡见不鲜……

在谷歌学术中搜索 2023 年及以后包含 "certainly, here is" 这种 ChatGPT 常用开头的论文,剔除直接包含 "ChatGPT" 和 "LLM" 的论文后,结果共有 50 余篇。

随机翻阅其中的几篇,果然是发现了 ChatGPT 的使用痕迹,ChatGPT 在这些论文中被用做了总结、翻译、制作表格等多种用途。

甚至其中还包括正式出版的论文合集:

而另一个 ChatGPT 常用句式 "As of my Last Knowledge Update",在相同条件下的搜索结果有 114 条。

而且出现形式上也更加离谱,"Certainly 组 " 当中至少还有一些只是用 ChatGPT 做了些辅助工作,"As of my … " 这一组干脆直接拿来搞正文内容了。

此外,"As an AI language model, I" 也有 40 多条搜索结果,不过也不排除其中有误伤的情况出现。

当然要论离谱,可能还要属这种把 ChatGPT 的按钮 "Regenerate Response" 也一起复制进去的了,而且数量还不算少,有将近一百篇。

露出鸡脚马脚被发现的论文数量尚且如此,删去了这些关键字从而 " 躲过一劫 " 的究竟有多少,就更是不得而知了。

当然,并不是说研究者不能使用 ChatGPT 来辅助论文撰写,包括 Elsevier、Springer(Nature 出版商)在内的许多知名出版机构都表示并不禁止 ChatGPT 的使用,只要进行声明即可。

总之,无论是论文本身还是审稿意见,亦或是其他文本写作,如何以更合理的方式运用 AI,值得人们继续深入思考。

论文地址:

https://arxiv.org/abs/2403.07183

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

ai 斯坦福 斯坦福大学 机器学习 加州大学
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论