本文來自微信公眾號“新智元”()作者:新智元

科研圈,快被生成的論文吞沒了!

8月9日,一篇收錄于

期刊上的論文,提出了一種復雜數學方程的全新解決方案。

chatgpt幫忙看論文_論文查看器_看論文的工具

論文地址:

chatgpt幫忙看論文_論文查看器_看論文的工具

本來是皆大歡喜的事,直到科學打假人 在論文的第三頁,發現了一處可疑的短語——「重新生成回復」( )。

論文查看器_chatgpt幫忙看論文_看論文的工具

經常用的小伙伴chatgpt幫忙看論文,看到這個短語,都會會心一笑。

「 」是網頁版上的一個按鈕,現在更新成了「」。

chatgpt幫忙看論文_論文查看器_看論文的工具

火速把這一發現po到了上,這也意味著,事情鬧大的話,這篇論文基本就被判死刑了。

果然,論文作者不得不承認,在寫作論文稿件時確實使用了。

chatgpt幫忙看論文_論文查看器_看論文的工具

論文的通訊作者為 ,他有兩個工作單位,一個是伊斯坦布爾的 ,一個是貝魯特的 。

這篇論文在5月被提交,7月發出了修訂版,在兩個月的同行評審期間,都沒有人發現其中的異常。

現在,

決定撤回這篇論文,理由是作者在提交論文時,并沒有聲明自己使用了。

期刊的同行評審和研究誠信主管Kim 表示,「這種行為違反了我們的道德政策。」

只是冰山的一角

然而,這篇論文,只是少數被曝光出來的「倒霉」選手。

從今年4月以來,已經「打假」了十幾篇論文,掛到了上。它們無一例外,都留下了的使用痕跡——「 」或「作為一個語言模型,我……」

看論文的工具_論文查看器_chatgpt幫忙看論文

所以,寫論文時究竟可不可以用呢?

對于這個問題,(愛思唯爾)和 (施普林格·自然)在內的許多出版商都有明確規定:大語言模型工具用是可以用的,只要作者聲明自己使用了即可。

不過目前看來,大部分使用了的同行評審論文,都沒有聲明這一點。

已經被逮到的論文,只是因為作者粗心,沒有小心清除掉留下的痕跡而已。

只要作者足夠細心,用沒用,又有誰能知道呢?

論文查看器_看論文的工具_chatgpt幫忙看論文

打假人表示,目前自己發現的論文,才只是冰山一角。

在愛思唯爾期刊中,他也發現了一些典型的「黑話」。

比如一篇8月3日發表在上的論文,主題是電子商務對發展中國家化石燃料效率的影響。

其中,就注意到,文章里有些方程完全就是不知所云。

不過最大的可疑之處在于,在某張表格上方,出現了這樣一行字:「請注意,作為一個語言模型,我無法生成具體的表格或進行測試……」

chatgpt幫忙看論文_論文查看器_看論文的工具

對此,的一位發言人表示,他們已經發現了這個問題,正在對這篇論文進行調查。

AI的大作,已經完美混進了人類作品

那么,一篇論文如果完全或部分由AI寫成,但作者不說,我們就沒有辦法發現了嗎?

大部分時候,的確如此。

最近美國南佛羅里達大學的一項研究表明,AI生成的文字內容,可能已經無法與人類寫的區分開來了。

看論文的工具_論文查看器_chatgpt幫忙看論文

他們邀請了72名世界頂級語言學期刊的專家,要求他們來審查各種研究摘要,但即使是這樣的專業人士,也很難識別出哪些摘要是人寫的,哪些是AI寫的。

在62%的情況下,他們會被AI騙過去。

論文查看器_看論文的工具_chatgpt幫忙看論文

具體來說,每位專家都被要求檢查四份摘要,能全部正確識別出來作者是人還是AI的,一個都沒有。

甚至13%的專家,一個都沒做對。

專家們的識別依據是語言習慣和文體特征,盡管他們的分析頭頭是道、合乎邏輯,但總體的陽性識別率也只有38.9%。

論文查看器_看論文的工具_chatgpt幫忙看論文

不過chatgpt幫忙看論文,英國科研誠信辦公室的Matt 表示,有些論文也會包含一些微妙的痕跡,讓我們可以隱約發現的「身影」。

比如,一些常見于AI的特定語言模式,以及翻譯得怪里怪氣的「奇妙短語」。

此處淺淺地感受一下:深度神經網絡—— (深刻神經組織) 。

chatgpt幫忙看論文_看論文的工具_論文查看器

chatgpt幫忙看論文_看論文的工具_論文查看器

以及人工智能—— (仿制意識/虛偽意識);大數據—— (巨信息);云計算—— haze (霾運籌);GPU—— unit(設計準備器) ;CPU—— unit(焦點準備器)等等。

看論文的工具_chatgpt幫忙看論文_論文查看器

除此之外,AI在生成參考文獻時也是相當的「天馬行空」,而這就可以作為同行評審時的重要參考。

例如,(《撤稿觀察》)就曾揭露過一篇關于馬陸()的預印本論文是由編寫的。

在一位研究人員發現文章中引用的一篇「論文」竟然是自己寫的后,注意到了這里面提到的大量參考文獻,都是假的。

論文查看器_chatgpt幫忙看論文_看論文的工具

類似的,丹麥國家血清研究所( )的微生物學家Rune 也遇到了AI偽造參考文獻的問題。

當時,一名學生向AI聊天機器人尋求有關腸道寄生蟲——芽囊原蟲屬()的文獻建議,而這個聊天機器人則憑空編造了一篇以為作者的參考文獻。

于是,這位學生就去找了,表示希望能獲取這篇他發表于2006年的「論文」。

顯然,這篇論文根本就不存在。

論文查看器_看論文的工具_chatgpt幫忙看論文

然而,正如之前提到的,對于這些明顯會暴露論文使用了AI的痕跡,聰明的作者很容易就能把它們刪得一干二凈。

如此一來,想要發現是否實用了AI,就變成了一個不可能的任務。

等打假人發現,無論是同行評審的會議論文,還是未經同行評審的預印本論文中,都存在大量使用了但未披露的情況。

當這些論文被掛在上之后,有部分作者會承認的確使用了,但并未聲明。

表示:「本質上,這是一場軍備競賽。就看騙子和偵探誰能勝出了。」

學術界要被攻陷了!

總之,形勢已經很嚴峻。

chatgpt幫忙看論文_論文查看器_看論文的工具

Bik已辭去工作,成為大眾知名的專業打假人

舊金山的一位微生物學家、獨立研究誠信顧問 Bik表示,和其他生成式AI工具的迅猛崛起,為「論文工廠」提供了充足的彈藥。

這是一條完善的產業鏈:這些公司大量生產和炮制出虛假的論文,賣給急需提高學術成果產量的研究者。

Bik說,現在問題已經惡化了一百倍。

如今的學術圈,可能已經充斥著一大批AI生產的「垃圾」論文。我們根本無從分辨,哪些是經過認真研究產生的嚴肅學術成果,哪些是AI炮制出來濫竽充數的「垃圾」。

論文查看器_chatgpt幫忙看論文_看論文的工具

同行評審:時間緊,人不夠

那么問題來了,為什么那些由AI生成的假論文,能屢次通過如此嚴格的同行評審?

一方面,這類的技術還比較新,并不是所有人都能有效辨別;另一方面,同行評審可能根本沒有時間來檢查這個問題。

對此,化名「 」去揭發偽造論文的 表示,期刊中那些由LLM生成且未被發現的論文,指向了一個更深層次的問題:同行評審往往足夠多的沒有時間,來徹底檢查稿件中的可疑之處。

「畢竟,整個科學界的態度就是『要么發表,要么死亡( or )』」,說,「因此『守門人』的數量永遠都不是夠的。」

論文查看器_看論文的工具_chatgpt幫忙看論文

也許,這就是當前殘酷的現實:評審論文需要大量的時間和專業知識chatgpt幫忙看論文,但AI只需幾分鐘就能完成一篇,無論它的質量是多差。