如何用chatGPT寫論文 科研熱點|ChatGPT真能寫論文?多家出版社禁止作者使用ChatGPT~
最近,智能聊天機器人火到了天際。
它能夠通過學習和理解人類的語言來進行對話如何用chatGPT寫論文,還能根據聊天內容的上下文進行互動,像人一樣來溝通交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務。
除此之外,它還能生產類似論文這樣的高度濃縮人類智慧的作品。
目前,全球不少學術期刊出版社明令禁止或者限制其下的作者使用。這是由于機器人撰稿本質是“模仿”,信息的來源依賴互聯網上的已有信息,整合后生成可讀性高的文章。
出版社十分擔憂——使用可能會造成新聞的不實報道如何用chatGPT寫論文,或者出現抄襲他人學術作品的現象,所以對其明令禁止。
也有出版商開始默認的存在,因為不管怎樣“圍追堵截”,它已經在改變人類社會方方面面。
“能力實在是太強了”。
用過的人如是感嘆。它不僅可以幫助人們解疑答惑,甚至還可以寫報告、寫論文。
最近,它在學術出版領域也引起了血雨腥風,一度讓很多期刊將它拒之門外。全球頂尖科學期刊《科學》明確表示,禁止在提交的論文中使用任何聊天機器人項目所編撰的文本。
盡管遭到業界大佬的“封殺令”,但卻有更多的學者對它的智能產生了濃厚的興趣。
此前,《金融研究快報》上就刊登了一篇有關的研究報告。報告顯示它可以獨立撰寫出一篇金融論文,并且論文內容能被相關的學術期刊所接受。
許多學者提出,學術出版商不應將視為威脅,可以通過“改造”物盡其用,把它當作一種低成本甚至免費的電子編寫助手。
人機結合
讓學術研究錦上添花
在傳統的論文撰寫過程中,通常會有四個階段:理論研究、文獻綜述、數據收集以及測試評估。研究人員于是基于此,對編寫程序進行改造:
第一階段,理論研究時,指定的一些寬泛主題撰寫初稿;
第二階段,研究人員在編寫程序中添加了不到200份與所給話題相關的現有研究摘要,要求在撰稿時參考這些文獻;
第三階段,收集數據時,研究人員會添加“領域專業知識”,讓論文信源更加可靠;
第四階段,研究人員閱讀計算機程序生成的內容,再給出改進建議。
之后進入測試評估環節,人機結合的文章會由32名專業的評審人員進行審核,判斷其內容的準確性和新穎性,以及是否達到學術期刊發表標準。
最后,專家評審員普遍認為最后的研究成果都是可以被學界所認同的。這無疑是個重磅消息:使用能夠產生高質量的學術研究內容。
撰寫的論文有優劣之分
當然,人機結合的文章并非完美無瑕。
《金融研究快報》刊登的這項研究結果也反映出存在一些潛在的缺陷。專家評審對作品研究的四個階段給出了不同的評分。
理論研究和數據收集這兩個階段往往廣受好評,而文獻綜述和測試評估則評分較低,但仍在學術可接受的范圍之內。
對此,研究人員猜測,這是由于更擅長直接識別和采集外部文本的信息。當編寫程序任務更復雜時,它對信息的處理就不會像真人思維那么靈活,而文獻綜述和測試評估往往屬于這一類。
所以加入人工對專業領域的知識輸出,能夠幫助機器人更進一步。換句話說,人類可結合的優勢,讓論文的產出更高效和便捷。
學術倫理仍舊是個大問題
是一種工具,即使不需要學者輸出專業的知識,它也能產生看似合理的內容。而人機結合,則能生成一篇專業性更高的文章。
但問題又回到了起點,人機結合的文獻就能完全保證所有信源的可靠性嗎?
學術誠信問題在業內已經是一個熱門且緊迫的問題,業界一家知名的學術打假網站 就報道了許多學術造假的負面事例。
而智能軟件的出現和應用會讓科研誠信變得更糟嗎?答案是有可能的。
但也不能一概而論,或許在專業研究人員的監管下這項技術可以變得更好。AI產物發展迅猛,但同時也會帶來新的問題如何用chatGPT寫論文,對于創造力的概念界定和創造性想法所產生的知識產權界定會變得更加模糊,這個問題目前也還沒有專家能給出確切的答案。
的出現,對于那些缺乏傳統人力研究援助資金的研究人員群體來說,比如新興經濟研究人員、研究生和早期職業研究人員等,也許是雪中送炭。
有關等新興AI產物的倫理界定,也會隨著科學技術的發展不斷完善。
來源 | 深究科學
免責聲明:本文系轉載,版權歸原作者所有;旨在傳遞信息,不代表本站的觀點和立場和對其真實性負責。如需轉載,請聯系原作者。如果來源標注有誤或侵犯了您的合法權益或者其他問題不想在本站發布,來信即刪。
聲明:本站所有文章資源內容,如無特殊說明或標注,均為采集網絡資源。如若本站內容侵犯了原著者的合法權益,可聯系本站刪除。