AI论文“井喷之年”,两大AI顶会接连爆出学术不端风波( 七 )

今年 5 月 9 日, IJCAI 公布录取结果,共接收 4752 篇有效提交论文,最终收录 850 篇,录用率为 17.9%,低于历年平均 20% 的录用率。公布结果之际,多位论文作者在网上表达了其对审稿结果的不满,称“本届 IJCAI 审稿史上最烂”,相关的讨论同样在当天登上了国内社区知乎的热门话题。

审稿问题以外,论文质量难以得到保证的问题其实早已凸显,而如今像 CVPR 这样的顶会,也出现了触及学术不端红线的论文。

在 AI 领域,每个细分方向的专家其实数目有限,会议难以找到足够的评审者。通常来说,解决的方法只有两种:每位评审者承担更多的任务,或者是让不够资格或者不够了解该领域的研究者充数。不论选择哪一种方法,都会导致评审质量下降。其次,大量论文的涌现,让细分领域的专家也无法完全把握所有的研究成果,剽窃行为就可能侥幸躲过评审的眼睛。

人工智能领域的火爆之势还不见衰减,接下来各个会议的投稿数可能继续创造新高。回顾今年以来层出不穷的各种顶会“审稿乱象”,或许整个领域的审稿机制又到了急需改革的时候。

在诸多改善审稿机制的讨论中,求助于技术的力量是一个值得关注的方向:能否通过自动化的方法减轻人工审稿负担?这将是整个领域急需探索的问题,此前,北大一支团队就曾提出过用AI来帮助审稿的思路。如果自动化审稿的方法在AI领域能够跑通,对于其他学科方向来说,这样的探索也可以为其提供借鉴。

推荐阅读