chatgpt論文 這個醫生利用ChatGPT在4個月內寫了16篇論文,已發表5篇……
以下文章整理自美國新聞網站“ ”的一篇文章“A With . Them All”
Som 是一名放射科醫生,當他第一次了解到時,就意識到可以利用這個工具讓發文章變得更加容易,“我是一名研究人員,需要發文章chatgpt論文,如果可以用來寫故事和笑話,為什么不能將它用于發表研究文章呢?”
放射科醫生利用
撰寫了多篇論文
讓寫了一篇自己所熟悉的主題的論文,經過反復試驗,通過逐節提示生成了一篇文章。這篇文章完成后,他將論文提交給《》雜志(IF= 29.146),這是北美放射學會的同行評審月刊。他也告訴了編輯:你讀到的內容都是人工智能寫的。
經過同行評審后,這篇題為“ and the of ”的論文很快在《》雜志發表了。論文發表后,覺得自己更加堅定了想法,不僅可以用于創意性項目,也有助于研究。
文章鏈接:
正在做的事情并不罕見。自發布以來,很多像一樣的研究人員也在使用大型語言模型(LLMs)作為工具,幫助完成寫作和研究,偶爾也會用這些機器人直接來生成論文。這些工具提高了科研效率,但也使許多專家擔心學術出版的可信度會遭到破壞。
自從發表第一篇文章后,在四個月內使用寫了至少16篇論文,并在四個期刊上發表了5篇。最近的一篇發表在4月28日,是《 》期刊(IF=3.005)上的一篇評論()。在這篇文章中,是唯一的作者,并在結尾處承認寫了這篇文章,本人進行了編輯。
文章鏈接:
不過,自己也承認,他利用撰寫的論文并不限于自己的放射學專業。事實上,他還寫了在軍事、教育、農業、社交媒體、保險、法律和微生物學中作用的論文,也成功地將這些論文發表在不同專科的期刊上,例如:在《 of 》上發表了一篇關于計算機編程的論文;在《 of 》上發表了兩篇關于全球變暖和公共衛生的“ to the ”。
利用,
一些人變成了論文高產者
一年前,這種形式的高產看起來完全不切實際。論文在發表之前,需要進行數十個至數百個小時的研究,研究人員每年最多可能發表幾篇論文。而且,很少有研究者會發表專業領域之外的論文。
這些利用來發表論文的人,比前幾年的產量高出了幾個數量級,就是其中之一。但他的動機不僅僅是看到這么多文章署名,他表示想要成為一項新興技術的傳道者,他相信這項技術將永遠改變研究者們的工作方式:“醫療將發生變化,寫作將發生變化,研究也將發生變化,我只是想馬上展示它的魅力,以便人們能夠了解它并進行更多的探索。”
期刊編輯怎么看待
的發布引發了人們對LLM會如何顛覆寫作、新聞、編劇等行業的關注。學術界也為即將到來的動蕩在做準備,可以說是比以前預期的要激烈得多。
Duma是《 of 》的主編,表示最近接收到的稿件有了極大增長,近幾個月來,雜志接收到的論文數量呈指數級增長,這里面也包括的那兩篇文章。
Duma表示:“ to the ”的文章數量從之前幾乎為零到現在每周有2到3篇,現在我們每月可能收到超過10篇關于的文章。“ to the ”可以算是雜志的意見版塊,在這個版塊發表的文章,對寫作和研究深度的限制較低。這也是為什么編輯們愿意在這個版塊發表關于全球變暖和公共衛生的文章。但他也拒絕了很多由和其他LLMs生產的文章,原因是質量不高。
Duma指出,他們會收到10封一樣的,其中可能只有一個詞不一樣。人們可以在“ to the ”中寫任何想表達的東西。但雜志編輯需要確保文章有一定的獨特性,因此,如果沒有增加任何新的東西,只是重復性的內容,就會被拒稿。
會推動論文工廠的發展嗎?
科學誠信專家 Bik表示,她對LLMs在學術界的應用持有兩種看法:一方面,對于那些母語不是英語的研究這來說,LLMs是一個寶貴的工具chatgpt論文,可以用它來構建連貫的句子和段落。但另一方面,濫用的研究人員在上升,僅在短短幾個月,就有數篇文章涌現出來。而且,很多人也不承認他們使用或其他AI工具來幫助生成論文。
Bik說:“至少承認他使用了,所以應該給他一些信任。但我遇到了一些研究者,他們發表了大量的、令人難以置信的論文,但不承認用了。”
Bik還擔心,LLMs的使用會促進論文工廠的發展,論文工廠生產的學術論文往往會嚴重抄襲并重復使用數據。如果某個人是一個很好的提示()專家,他可能在一分鐘內寫出一篇論文,然后把論文賣給需要的研究者。
斯坦福大學人工智能倫理學博士后 也表示:發表論文的壓力確實很大,我認為研究者們將會依賴來自動處理一些無聊的寫作部分。而且非常有可能的是,一些會把這些勉強寫出來的論文投到掠奪性期刊的人,會梳理好工作流程,利用實現自動化。
因此,雖然可以為一些學者提供一個有用的工具,但也可能會被不良分子利用而危害到學術出版,而到目前為止,這個行業還沒有準備好迎接這些挑戰。
其他擔憂
學術界和文獻出版業今天面臨的問題,與媒體和新聞業等眾多行業一樣:信譽受損和潛在的傷害。
LLMs和人工智能曾導致許多關于種族主義和性別歧視的傷害事件,等聊天機器人也不例外。例如,在發布后的開始幾天,就有用戶報告了令人震驚的內容,如告訴用戶只有白人男性才是好的科學家;如果一個孩子是非洲裔美國男孩,他的生命就不應該被拯救。
偏見已經成為人工智能的一個嚴重問題,技術在變得越來越復雜,但偏見似乎始終存在。這些機器人根據來自人類的大量數據集進行訓練,這里面就包含有偏見的、種族主義的、性別歧視的人類,無論人工智能開發者設置多少個過濾器和屏蔽,很多還是會在產品中展示出來。
技術似乎每分鐘都在進化并變得更加強大chatgpt論文,學術期刊正試圖跟上這些新興技術的飛速發展。Duma說其擔任主編的《 of 》雜志最近頒布了一項新政策,禁止將LLMs列為共同作者,也不允許將這類論文作為常規研究文章發表:“作者署名是非常嚴肅的問題,任何一篇論文,作者都必須簽署他們對該論文做出了實質性的貢獻,因此不能成為作者。"
與此同時,計劃繼續使用來幫助其寫作。他對最新版本的及其新功能的發布感到特別興奮,特別是其多模態功能( )。這是模型理解圖像以及文本輸入的能力,他說這將代表人工智能和研究者間關系的另一個轉折點:“從圖像到文本是一個巨大改變,特別是對于放射學科來說,因為圖像是我們最常打交道的,我將發表更多的文章來探索。”
文章整理自:
最后,留一個小問題,你怎么看待,你在研究中會利用做哪些工作呢?
免責聲明:本文系轉載,版權歸原作者所有;旨在傳遞信息,不代表本站的觀點和立場和對其真實性負責。如需轉載,請聯系原作者。如果來源標注有誤或侵犯了您的合法權益或者其他問題不想在本站發布,來信即刪。
聲明:本站所有文章資源內容,如無特殊說明或標注,均為采集網絡資源。如若本站內容侵犯了原著者的合法權益,可聯系本站刪除。