借AI“慧眼”鉴别可疑论文图片

2024-03-21

作者:刘霞

来源:科技日报

A-
A+

  今年1月,英国分子生物学家肖尔托·戴维发表文章,指控美国哈佛大学医学院附属丹娜-法伯癌症研究所科学家通过修改图片伪造数据。随后该研究所正式宣布撤回6篇论文,并纠正了另外31篇论文的数据。吹哨人戴维声称,这些造假论文发表于1999年至2017年,其中一些论文刊发于《细胞》和《科学》等顶级科学期刊。戴维使用人工智能(AI)图片分析软件和手动检测发现了论文中的问题。

  《自然》网站在近日的报道中指出,上述事件只是冰山一角,对学术论文中出现可疑图片的指控还有很多。面对学术侦探和公众的审查,学术期刊正在积极部署AI工具,以检测出可疑图片。


 可疑图片层出不穷

  可疑图片包括在多个图中使用同样的数据,图片部分或全部重复,以及拼接图片等。有些可疑图片是论文作者有意为之,误导读者;有些是作者为了让图片变得更加美观而作出些许改变。专家表示,不管基于何种理由,可疑图片都损害了科学的完整性和严谨性。

  专门关注学术不端和期刊撤稿的学术打假网站“撤稿观察”维护的数据库列出了51000多份需要撤回、更正的记录。

  美国科学图片审查员伊丽莎白·比克及其同事对此开展了量化分析。他们研究了1995年至2014年间发表的20000多篇论文中的图片,结果发现近4%的论文包含可疑图片。这项研究还显示,从2003年开始,论文中图片重复出现的现象有上升趋势,可能是因为数字摄影技术使修改图片变得更容易。

  比克指出,与几十年前相比,现在发表的论文数量与日俱增,论文中出现图片的数量也水涨船高,可疑图片也会有增无减。美国科学公共图书馆出版伦理团队成员蕾妮·霍赫则认为,可疑图片问题的高报告率也可能源于“全球对诚信问题的认识提高,举报行为增多”。

  丹娜-法伯癌症研究所正在开展后续调查,该机构研究诚信官员巴勒特·罗林斯表示,尽快纠正错误至关重要,这是具有强大研究诚信的机构的常见做法。不过,她也补充道,论文中出现图片重复或不一致并不能证明作者有意欺骗。

 AI或充当“火眼金睛”

  为减少可疑图片发表,包括《细胞科学》《公共科学图书馆·生物学》《公共科学图书馆·综合》在内的一些期刊,要求作者除了提交裁剪或处理后的图片外,还要提交原始图片。

  许多出版机构计划将ImageTwin、ImaCheck和Proofig等AI工具,纳入出版前检查中。《科学》杂志宣布使用Proofig筛选所有投稿。该杂志主编霍顿·索普表示,Proofig发现了一些问题,编辑因此否决了某些论文的发表,通常作者也对论文中的错误被识别出来表示感谢。

  《自然》报道称,即使图片已经被旋转、拉伸、裁剪,或改变了颜色,这些AI系统都可以快速检测出同一篇论文中的重复图片。当然,不同系统各有不同优势。

  比克解释称,Proofig可以发现哪些图片是通过剪切或缝合拼接而来;ImageTwin则使用户能将某篇论文中的图片与其他论文的大型数据集进行交叉检查。而一些出版商也在开发自己的AI图片分析软件。

  研究表明,AI工具标记的许多错误也有点“无辜”。Proofig对2021年和2022年初提交给美国癌症研究协会9家期刊的1300多篇论文开展了分析,发现15%的论文可能存在图片重复问题。论文作者的回复表明,207次图片重复中,28%是作者有意为之,例如使用同一张图片说明多个论点;而另外63%是无意的错误。

  协同作战不可或缺

  这些科技期刊用户报告称,AI系统肯定能更快、更容易发现某些类型的图片问题。但比克认为,这些AI系统不太擅长发现更复杂的操作,比如AI生成的虚假图片。英国生物学-生化与分子生物学类期刊《恩博报告》主编伯恩德·普尔弗也认为,这些AI工具有助于检测出低级别的诚信违规行为,但更多更严重的问题可能会急剧增加,目前的方法或许很快会过时。

  《自然》指出,要想检测出可疑图片,在专家团队的专业素养、技术工具,以及提高警惕性等方面要协同发挥作用。普尔弗表示,随着图片处理变得越来越复杂,查找可疑图片将变得越来越困难。

  那么,从长远来看,如何最好地解决图片滥用问题呢?

  比克表示,科学家需要更多地关注严谨性和数据的可重复性,对学术不端可能带来的影响和后果要保持敬畏之心。(记者 刘霞)


(责任编辑:王翔)


声明:文章版权归原作者所有,本文摘编仅作学习交流,非商业用途,所有文章都会注明来源,如有异议,请联系我们快速处理或删除,谢谢支持。


(原文章信息:标题:借AI“慧眼”鉴别可疑论文图片,作者:刘霞,来源:科技日报,来源地址:http://www.news.cn/tech/20240321/2c8ca50746524bc186209619f222d463/c.html)

相关新闻

即时要闻

今日专题

热门资讯

佰里服务-公众号

扫码关注随时看