谢赛宁实在是真的倒霉,实验室由他领导,投稿的一些论文里暗藏着系统提示词意在避免被LLM审稿「误上」,却被网友当着众人之面「处刑」!
跟刚刚《》爆出的科研圈两大丑闻,就是小巫见大巫,不值一提。
这次,顶刊《》连发两条新闻,曝光了科研圈的两大「陋习」:
论文工厂肆意横行,出现论文造假现象,且已形成产业链,全球范围内的科学期刊遭到系统性渗透, 。
(2)入侵学术圈,20%计算机论文已现AI痕迹。
若声称第一条确凿证实了科研领域一直以来存在的不良习惯,那么第二条无疑绝对是科研圈子全新的“不良现象”。
并且,此次属于实实在在的科学研究,该项研究极为系统,所具备的证据十分充足,将科研圈那所谓的“皇帝的新衣”给揭露了 。
科研欺诈形成产业链
多年来,有专家专门研究科学不端行为,这些专家始终都在发出警告,那就是制造虚假科研论文的产业,其规模不仅十分庞大,并且手法还日益复杂。
如今,一项大规模的调查提出了确凿证据。
论文链接
:
对于这项研究而言,该项研究对数千篇论文进行了分析,同时还对那些论文的作者以及编辑进行了分析,结果发现「科学诈骗」已然形成了产业链。
整个产业是错综复杂的,是相互勾连的,「论文工厂」仅仅乃是其中的一部分,还涉及到出版商,还涉及到期刊,还涉及到中介等多个环节。
Reese等,于西北大学从事元科学()的研究,他们指出,存在作者与编辑组成关系网的情况,并且合谋发表质量低劣乃至完全造假的论文 。
一些大型机构,在期刊上批量投放虚假论文,被他们发现了,他们对中介机构起到牵线搭桥的作用,表示怀疑。
与此同时,有研究表明,即便当下虚假论文于科研文献里所占的比例依旧不算高,然而其增长速度远远超过了学术出版物全面的增长趋向。

说道这项研究表明学术不端行为已经演变为一项产业的是柏林自由大学的Anna 。
她长时间从事学术腐败方面的钻研,尽管没涉入这次探究,和与他一块儿的同事期望,这项有着广泛覆盖范围的调查能够引发出广泛的重视,并且促使学术出版体系得以变革。
这些编辑撤稿率高得不正常
这次的分析从识别涉嫌腐败的编辑入手。
研究团队将PLOS ONE选为重点调查对象,大型期刊便于获取大规模元数据,会公开每篇论文处理编辑姓名;该期刊每年发表数千篇论文,研究人员无需内部数据就能识别潜在异常情况。
他们先是筛选出全部曾被撤稿或者在上面收到评论的论文,紧接着进一步追踪这些论文的责任编辑。
在线平台允许研究人员对已发表论文提出质疑
总的来讲,存在论文,其由33位编辑进行处理,然而这样的论文,撤稿或者受到质疑的频率,远远高于正常的统计概率。
一种表示是,「其中存在一部分人属于极端不寻常」。举例如下,现有一位编辑,在PLOS ONE审理的79篇论文当中,竟然有49篇被撤稿!尽管这些被识别出来的编辑,仅仅负责了截止到2024年所发表论文的1.3%,然而却涉及了几乎三分之一的撤稿论文。
研究团队另外发现,这些当中的编辑跟某些特定作者之间的互动的频率简直是异常地高,当中有些编辑频繁地互相进行审稿的事情,这样的一种关系实在是令人产生严重怀疑图卢兹大学,同时还指出,一部分编辑极有可能是收受了贿赂,不过呢「也存在仅仅只是同事之间的一种私下的安排」。
旗下的10本期刊当中也有类似的可遭怀疑的编辑方面行为得以呈现,此次收购后面鉴于这种期刊持续性出现论文工厂相关操作从而被迫停止运营。
科研也是生意
相关领域的学者早已怀疑编辑和作者之间存在勾结。
维戈大学的文献计量学家,来自西班牙,宣称,此项新研究,为这一长久猜测,给出了「确凿证据」。
他进行了补充,指出当前所发现的问题,是集中于少数期刊的,不过其他的出版物,极有可能也是存在着类似的现象的。
就在上周,Watch进行了报道,报道称,出版商已经开始撤回122篇论文,原因在于发现,于同行评审当中,作者和编辑组存在相互勾结的情况,并且未对利益冲突予以披露 。
据声明称,此关系网人数总计为35人,这些人在其他7家出版商所办期刊上发表了超4000篇论文,当下正接受进一步审查,有人表示,他们打算把相关信息分享给其他受影响的出版商。

团队发现,这一问题的根源,并非仅仅局限于个别作者与编辑之间开展的「互帮互助」行为方面。他们还发现,存在着一种进行系统性「串通」的操作情况,专门用于把大量可疑的论文集中起来予以发表。
研究人员剖析了2000多篇于其上被 为图像重复的论文,并且辨认出多个相互之间 图片的论文集合,这些论文常常于同一时间段密集发表,而且密集出现于少数几个期刊之中。 ,
他指出,这是一种方法,这种方法是通过图像重复来追踪潜在的造假网络,这种方法是「真正具有创新性」的,这种方法「此前从未有人尝试过」。
有些案例或许源自单一论文工厂将内容渗透进多个期刊,不过研究团队也持有这样的观点,即有些集群大概是「中介」进行操控所带来的结果,那些中介在论文工厂和被攻陷的期刊之间起到了架桥的作用。
关于总部设在印度金奈的and (ARDA),研究团队展开了进一步调查。
这家机构所提供的服务含有「论文撰写」,这家机构提供的服务还涵盖「期刊发表」,其「期刊发表」涵盖数十本期刊。
团队发现,ARDA提供的期刊名单在过去几年中持续更替,有新刊物加入,有期刊因被数据库除名而被移除。
表明,那些期刊常常登载显著存有问题的论文,所指向的ARDA给研究团队给出的报价差不多处于250至500美元的范围之内,这一网站要求作者自行去提交论文,这意味着ARDA自身并非论文工厂,而是一个中介性质的平台。
信息科学家Meho,来自美国贝鲁特大学,称有机构如ARDA,常借“编辑服务”名义公开开展运营活动。
虽然这些行为对于学术界而言,有可能带来极其严重的危害致使违反科研伦理,然而由于并非在法律上违法就开展这类业务,所以它们并不存在避讳的情况。
科研造假,贻害无穷
团队记录的问题正在迅速加剧。
他们有所发现,这类可疑论文呈现出每1.5年便翻一番的情况,其增长速度是整个科研文献增长速度的10倍,尽管总体比例依旧不算高 。
同时,被撤稿的论文数量在快速上升,在上被标注的论文数量也在快速上升,被撤稿的论文数量每3.3年翻番,在上被标注的论文数量每3.6年翻番,不过被撤稿且在上被标注的论文数量远远追不上造假论文的增速。
她特别警告,其指出,医学等领域尤为敏感,这说明虚假科学的比重正在上升,这些假论文可能被纳入系统综述和Meta分析,从而误导人们对药物和治疗的认知。
一个来自莱顿大学的人,作为科学研究方面的学者,表明,科学研究本身存在着快速扩张的情况,而这种快速扩张的情况,也是使得这一问题得到助长的其中一个因素。
论文工厂所产出的东西,常常被隐匿于影响力不那么高的期刊里头,其目的在于防止引发关注。在小型学术圈子当中,这些问题更易于显现出来,然而随着某些领域变得越发庞大且欠缺透明度,这些论文更便于躲避审查。
他进行了补充,科研人员数量急剧增多,许多机构越发将论文数量当作评价标准,一些研究者因而转向论文工厂以便快速积存“成果”。
国内亦有教授指出:

激励机制被扭曲,评价指标虚高,有着「非发即亡」的文化氛围,且对低质量研究普遍纵容,这些都为论文工厂的繁荣提供了土壤。
也曾指出,于竞争压力之下,有的年轻研究人员或许会遭逼迫去购置论文工厂服务,以此来防止被同行给淘汰掉。
在这项研究里,存在着诸多现象,实际上这些现象早就已经被广泛地进行猜测了,然而在此次的研究当中,却提供了有着强大效力的实证。
说道
在问题规模和真相曝光方面,我们已经远远落后了。
这项研究最重要的启示就是:问题的规模远比我们想象的要严重。
进一步说明情况下,若出版商、科研资助机构以及招聘与晋升决策者并未切实真正采取行动进而进行追究责任的操作,也就是没有实际行动且没有追责,那么「这一现象将会持续地进行扩散,并且这种扩散的状态还在快速地不断恶化。」
污染学术圈
自从2022年突然出现以来,科研圈运用人工智能撰写论文的频率不断急剧上升,如今,这股潮流已经越过多个学科,正深切重新塑造科研写作。
在某些领域之中,运用生成式AI去撰写稿件已然差不多成为了「标准操作」,于计算机科学领域里,有22%的论文被发觉含有大语言模型也就是LLM生成内容的迹象。
研究团队分析了超过100万篇科学论文和预印本,它们的时间跨度是2020年至2024年,重点聚焦于摘要与引言部分,通过识别AI常用词汇,追踪下语言风格的变化轨迹,研究结果令人震撼。
论文链接:
最终这项研究发表于《自然·人类行为》( Human )。
研究表明,截至2024年9月,22.5%的计算机科学摘要呈现出LLM修改的迹象,电气系统和工程科学在这方面紧跟其后,然而数学摘要仅占7.7%,生物医学和物理学等学科的占比相对较低。
来自美国路易斯维尔大学的Alex Glynn宣称,此次研究具极大重要性程度 。

他指出,在学科中,学科是像计算机科学这样与AI高度相关的,大语言模型的渗透程度如此之高,这一发现或将为监管和检测提供重要线索。
他补充道,或许我们得重新去思考,这场围绕AI展开的对话,应该主要将焦点对准哪些范畴。
潜入科研圈
刚上线之际,各个大学术期刊好似面临大敌一般,纷纷推出限定使用AI撰写论文的政策,意图去防止“AI水军”出现泛滥情况。
但很快,研究者就开始有所发现了,在大量提交的论文当中,出现了如「 」(重新生成回答)这样“AI味”十足的短语,在大量提交的评审报告里图卢兹大学,也出现了「my 」(我的知识截止时间)这般“AI味”十足的短语 。
图卢兹大学的计算机科学家,还有其他人,开始着手整理涵盖这些「确凿证据」的论文清单。
自2024年3月开始,Glynn始终在做维护 -AI数据库这件事,对科学论文里涉嫌运用AI的案例进行记录。
格林说,乍一看,确实存在些好笑之处呢,不过深层涵义令人忧心呀。
有些论文,直白地自我陈述:「我是一个 AI 语言模型。」,甚至还会劝告读者,去找更为可靠的信息来源。
问题是,LLM有这样一种情况,它存在着或者会出现胡编乱造那些内容的可能性,也就是产生「幻觉信息」,一种相比而言更可怕的状况是,经过了一轮又一轮的很多次同行评审之后,它依然能够以某种方式「混进」正式期刊之中,这种情况直接对科研论文质量底线发起了挑战。
更麻烦的是,随着技术升级,使用者掩盖痕迹的能力也越来越强。
为此,科学家们开始寻找更微妙的LLM使用迹象。
上个月,《科学进展》( )发表了一项研究。
论文链接:
这项分析了2010年的索引论文,这项分析了2011年的索引论文,这项分析了2012年的索引论文,这项分析了其他年份的索引论文,这项分析了上述年间索引的1500多万篇论文,寻找发布后频率异常升高的「过量词汇」( )。
2024年频率增加的词汇
图宾根大学的数据科学家Kobak所领导的研究表明,在2024年留学之路,大概七分之一的生物医学研究摘要很有可能是由AI撰写出来的。

詹姆斯·邹,这位斯坦福大学的计算生物学家,采用了相近方式,对诸多领域展开调研。
论文链接
:
他施行类似办法,首先找出发布之前之论文段落,接着运用大语言模型予以摘要,然后使 AI 按照摘要生成完整段落,最终训练成一套能够识别 AI 文风之统计模型。
这个模型,对原本在科研写作里很少出现的词语,比如「」表示关键的那个词,还有「」代表复杂精细的那个词语,以及「」用来展示的那个词,都相当敏感的句号
研究团队把模型运用到了112万篇论文上,这些论文的时间跨度是2020年1月至2024年9月,涵盖arXiv等预印本平台,还包括15种《自然》系列期刊。
结果得以显示,起始于2022年11月发布,历经不到数月时间,大语言模型生成内容的比例,就呈现出剧烈飙升的态势 。
可要晓得,撰写一篇论文常常需耗费好几个月,甚至是几年的时间。这表明从最开始的时候,众人就快捷着手运用了。
不同学科,其增长速度并不一样。James Zou觉得,这和研究人员对于AI技术的熟悉程度是有关系的。
但Zou强调,大语言模型是这样的,不管情况是好还是坏,它已然成为科研过程中属于不可分割的这样一部分 。
Kobak指出,实际的AI使用频率,有可能是更高的,这是由于作者,或许已经着手,对标志性词汇,进行删除操作,以此来规避检测。
尽管研究重点集中于摘要以及引言,Kobak忧虑未来会借助由LLM所生成的内容去训练新的LLM,存在着这样的“恶性循环”。
参考资料:



