chatgpt一種大型語言模型 (LLM),由知名的人工智能研究實驗室在2022年11月30日發布,它通過模仿從互聯網整理的龐大文本數據庫中的語言統計模式來生成令人信服的句子。

相比于傳統的語言機器人,能夠通過學習人類的語言來進行對話,理解聊天的上下文語境,并且使用更接近人類日常的語言做出回應。除了聊天機器人的功能,甚至能完成撰寫郵件、視頻腳本、翻譯、代碼,甚至寫小說、做考試題和撰寫學術論文。在開放后引發了人工智能圈的轟動,短短幾天時間內就吸引了幾百萬人的注冊ChatGPT 學術應用,被不少人譽為“有史以來最智能的聊天機器人”。

另一方面,對教育界和學術界造成了重大的沖擊。人工智能不僅能夠通過大學和專業資格考試,還能撰寫專業性極高的學術論文,這些由人工智能生成的論文甚至連專業研究者也無法輕易分辨出來。當期刊編輯、研究人員和出版商仍在爭論在文獻發表中的恰當位置時,已經在學術文獻中正式亮相。據《自然》雜志網站報道,至少有4份已發表和預印本上的論文使用了作為論文的“合著者”。

應用學術有限公司_ChatGPT 學術應用_應用學術英語

科幻紀錄片《我們需要談談》(AI We Need To Talk A.I.,2020)畫面。

目前,多家學術期刊發表聲明,完全禁止或嚴格限制使用等人工智能機器人撰寫學術論文。《自然》日前發表文章,明確了學術論文中使用人工智能寫作工具的規定,其中列出兩項原則:第一、任何大型語言模型工具(比如)都不能成為論文作者;第二、如在論文創作中用過相關工具,作者應在“方法”或“致謝”或適當的部分明確說明。

科學》雜志不接受使用生成的投稿論文,同時不允許作為論文合著者。《細胞》和《柳葉刀》則表示論文作者不能使用人工智能工具取代自己完成關鍵性任務,作者還必須在論文中詳細解釋他們是如何使用這些人工智能工具的。

學術工作者普遍認為,等人工智能工具很有趣,但它們距離真正的學術寫作和科學研究還很遠。《科學》雜志網站近日發表的社論文章稱,正如工具開發者所述,“ 有時會寫出看似合理但不正確或荒謬的答案”。比如,引用一項不存在的科學研究導致最后的結論發生偏差,這對于追求準確性的科學研究來說是致命性的。此外,論文作者在發表作品時,都必須聲明自己的作品是“原創”的,這就意味著使用編寫和生成文本是完全不可接受的ChatGPT 學術應用,這種行為其實剽竊了其他人的知識成果。

人工智能生成的內容還會引發一個更嚴重的問題:誰來對這些內容負責?通常而言,論文作者應對文章的觀點和內容負責ChatGPT 學術應用,但人工智能顯然無法承擔論文過程中出現謬誤甚至造假承擔責任。這也是目前大多數學術期刊和出版商“封殺”的主要理由之一。

也有一些觀察人士指出,等人工智能工具的出現,一定程度上能夠倒逼學術界和教育界對傳統的運作模式進行變革。《自然》雜志網站先前發表的一篇文章提到,如果學生們開始使用,這不僅是“外包”了他們的論文寫作,還會“外包”他們的思維。的出現可能會讓教師減少讓學生回答一些普通的問答題,更注重于培養學生的批判性思維。在論文寫作上,學術工作者應該減少無意義的內容堆砌,生產真正有價值的學術研究成果。

參考資料:

(1) is fun, but not an

(2) as on : many

(3) such as ; here are our for use

編譯/李永博

免責聲明:本文系轉載,版權歸原作者所有;旨在傳遞信息,不代表本站的觀點和立場和對其真實性負責。如需轉載,請聯系原作者。如果來源標注有誤或侵犯了您的合法權益或者其他問題不想在本站發布,來信即刪。