chatgpt:a:5:e:c:2:2:e:8:1:2:5:a:1:5:7:e:b:a:4:9:f:d:0:3:9:2:5:1:a:3#

參考消息網(wǎng)4月21日報道初創(chuàng)公司開放人工智能研究中心()推出的聊天機器人(聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器)的功能令人驚嘆,這促使外界對人工智能領(lǐng)域的興趣和投資激增。

但據(jù)美國《連線》月刊網(wǎng)站4月17日報道,上周末,該公司首席執(zhí)行官薩姆·奧爾特曼發(fā)出警告:創(chuàng)造這款機器人的研究戰(zhàn)略已經(jīng)失去效用。尚不清楚未來的進展將出自何處。

近年來,采用現(xiàn)有的機器學(xué)習(xí)算法,并將之?dāng)U大到以前難以想象的規(guī)模,在人工智能語言模型領(lǐng)域取得了一系列令人印象深刻的進展。該公司在訓(xùn)練這些項目中的最新模型GPT-4時,可能利用了數(shù)以萬億計的文本文字和數(shù)以千計功率強大的計算機芯片。這個過程需要超過1億美元的開支。

但是,奧爾特曼說,即使擴大模型規(guī)模,也不會取得更大進展了。上周末,他在美國麻省理工學(xué)院舉辦的一次活動中告訴人們:“我認為我們已處于這種巨型模型時代的末期。我們會用其他方法改進它們。”

奧爾特曼的斷言表明,在開發(fā)和應(yīng)用新的人工智能算法的競賽中出現(xiàn)了意想不到的轉(zhuǎn)折。自去年11月推出以來,微軟公司利用其底層技術(shù)為必應(yīng)搜索引擎增加了聊天機器人功能;谷歌公司推出了與必應(yīng)競爭的聊天機器人“巴德”。很多人一擁而上,嘗試用新一代聊天機器人協(xié)助完成工作或個人任務(wù)。

與此同時,無數(shù)資金充裕的初創(chuàng)公司正在斥巨資打造規(guī)模更大的算法,努力追趕的技術(shù)。在稍加升級GPT-3的基礎(chǔ)上推出了的最初版本,而用戶現(xiàn)在能夠使用功能更強大的GPT-4驅(qū)動的版本。

奧爾特曼發(fā)表的聲明表明,GPT-4可能是的戰(zhàn)略——擴大模型規(guī)模并為之提供更多數(shù)據(jù)——能夠產(chǎn)生的最后一項重大進展。他沒說哪種研究戰(zhàn)略或技術(shù)可能會取而代之。在描述GPT-4的論文中說,它的預(yù)測表明,擴大模型規(guī)模的收益在減少。奧爾特曼說,公司能夠建立的數(shù)據(jù)中心的數(shù)量以及建設(shè)速度,也存在客觀限制。

加拿大科希爾公司聯(lián)合創(chuàng)始人、曾在谷歌公司人工智能部工作的尼克·弗羅斯特說,奧爾特曼覺得擴大模型規(guī)模不會永遠奏效,這一觀點確實有道理。他也認為,要在轉(zhuǎn)換器(GPT-4及其競爭對手的核心機器學(xué)習(xí)模型)方面取得進展,不是規(guī)模的問題。

他說:“有很多辦法能讓轉(zhuǎn)換器變得更好、更有用,其中很多跟擴大模型規(guī)模無關(guān)。”他指出,新的人工智能模型設(shè)計(或結(jié)構(gòu))以及基于人類反饋的進一步微調(diào),都是很多研究人員開始探索的前景光明的方向。

頗具影響力的語言算法組的每個版本都包括人工神經(jīng)網(wǎng)絡(luò),在接受訓(xùn)練后,可預(yù)測會跟在一段給定文本后出現(xiàn)的字詞。

GPT-2是這種語言模型中較早的一個,于2019年推出。它最多有15億個參數(shù)。當(dāng)時,與之前的系統(tǒng)相比ChatGPT數(shù)據(jù)模型訓(xùn)練器,GPT-2已經(jīng)極其龐大了,部分原因在于,的研究人員發(fā)現(xiàn)ChatGPT數(shù)據(jù)模型訓(xùn)練器,擴大規(guī)模可以讓模型更連貫。

2020年推出的GPT-3規(guī)模更大,其參數(shù)達到驚人的1750億個。該系統(tǒng)生成詩文、電子郵件及其他文本的綜合能力令其他公司和研究機構(gòu)堅信,應(yīng)將自己的人工智能模型擴大至類似甚至更大規(guī)模。

在去年11月亮相后,一些技術(shù)權(quán)威猜測ChatGPT數(shù)據(jù)模型訓(xùn)練器,等到GPT-4推出時,它將是一種規(guī)模和復(fù)雜度令人目眩的模型。而當(dāng)終于公布這一新的人工智能模型時,公司并未披露其規(guī)模到底有多大,也許是因為規(guī)模已不再那么重要。

免責(zé)聲明:本文系轉(zhuǎn)載,版權(quán)歸原作者所有;旨在傳遞信息,不代表本站的觀點和立場和對其真實性負責(zé)。如需轉(zhuǎn)載,請聯(lián)系原作者。如果來源標(biāo)注有誤或侵犯了您的合法權(quán)益或者其他問題不想在本站發(fā)布,來信即刪。