ChatGPT 聊天機器人 ChatGPT爆火,我們是否可以信任聊天機器人?
生成的程序小狗。
近日,一款名為的聊天機器人火遍全球,該機器人的研發(fā)公司表示ChatGPT 聊天機器人,上線短短5天用戶數(shù)量已突破100萬。在網(wǎng)友們曬出的截圖中,不僅能流暢地與人對話,還能寫代碼、找Bug、做海報、寫年報……甚至還以魯迅的文風(fēng)進行天馬行空的創(chuàng)作,幾乎無所不能。
并非市面上唯一一款對話型人工智能系統(tǒng)。早在去年的I/O開發(fā)者大會上,谷歌就演示了專門為對話而建立的系統(tǒng)。今年春天,一名谷歌工程師甚至表示有自己的“意識”。雖然這一說法遭到了許多人的強烈批評,但卻實實在在地抓住了公眾的想象力。
對話型AI有何玄機?
是人工智能研究實驗室在11月30日發(fā)布的全新聊天機器人。在的官網(wǎng)上,被描述為優(yōu)化對話的語言模型,是的姐妹模型。這個模型以對話的形式進行互動,使得能夠回答后續(xù)問題、承認錯誤、發(fā)出質(zhì)疑并拒絕不適當(dāng)?shù)恼埱蟆?/p>
據(jù)澎湃新聞此前報道,采用了和一樣的人類反饋中強化學(xué)習(xí)(RLHF, from )技術(shù),通過將抹去個人信息的人工注釋添加到訓(xùn)練集之前,利用這些數(shù)據(jù)來進行模型的微調(diào),達到了提高幫助性和真實性,同時減輕語言模型的危害和偏見的效果。
則是谷歌公司在去年5月推出的一款突破性對話應(yīng)用語言模型技術(shù)(The of ),谷歌稱其可以參與流動性的自由對話。據(jù)《紐約時報》12月12日報道,即人工智能研究人員所稱的神經(jīng)網(wǎng)絡(luò),是一個松散地、仿照大腦中神經(jīng)元網(wǎng)絡(luò)的數(shù)學(xué)系統(tǒng)。這一技術(shù)在谷歌翻譯、自動駕駛等服務(wù)中也有使用。
這樣一個神經(jīng)網(wǎng)絡(luò)會通過分析數(shù)據(jù)來學(xué)習(xí)技能,例如,通過在數(shù)以千計的貓咪照片中找出固定模式,從而學(xué)會識別一只貓。
5年前,谷歌和等實驗室的研究人員開始設(shè)計神經(jīng)網(wǎng)絡(luò),分析海量的數(shù)字文本,包括書籍、維基百科、新聞報道和在線聊天記錄,科學(xué)家們將它們稱為“大型語言模型”。該技術(shù)可以自動生成文本,并結(jié)合不同的概念、模仿人們寫的東西。
通過,已經(jīng)努力完善了這項技術(shù)。不像那樣能夠進行自由對話,它被設(shè)計得更像是Siri、這類的數(shù)字助手。不過與一樣,是在從互聯(lián)網(wǎng)上摘取的數(shù)字文本的海洋中訓(xùn)練而成的。
聊天機器人并不總說實話
經(jīng)過海量信息的訓(xùn)練,這類的聊天機器人能夠很輕易地提供想法、回答問題,但是它們并不總是說實話。它們提供的答案有時真假參半,這導(dǎo)致人們開始擔(dān)憂,隨著技術(shù)的成熟,這類機器人可能會被利用來傳播假消息和謠言。
一位來自美國弗吉尼亞州的數(shù)據(jù)科學(xué)家亞倫·馬格利斯( )告訴《紐約時報》,雖然他時常驚異于的開放式對話天賦ChatGPT 聊天機器人,但它有時候會“胡編亂造”,因為這是一個被互聯(lián)網(wǎng)信息訓(xùn)練出來的系統(tǒng)。
當(dāng)馬格利斯要求像馬克·吐溫那樣與自己聊天時,很快描述了吐溫與李維斯·施特勞斯( )之間的會面,并說馬克·吐溫在19世紀中期居住在舊金山時曾為李維斯這位牛仔褲大亨工作。這看起來像是真的,但事實是ChatGPT 聊天機器人,盡管馬克·吐溫和李維斯同時居住在舊金山,但他們從未一起工作過。
科學(xué)家將這種現(xiàn)象稱為“幻覺”——聊天機器人就像一個很會講故事的人,它們有辦法把它們學(xué)到的東西重塑成新的東西,但不考慮這些是否真實。
據(jù)澎湃新聞此前報道,在釋出不久后就遭到了 (一個程序設(shè)計領(lǐng)域的問答網(wǎng)站)的抵制。 暫時禁止用戶分享生成的回復(fù),因為很容易與用戶互動,能夠快速生成大量答案,這讓網(wǎng)站充斥著許多看似可信但不正確的信息。
公司也清楚并不完美。該公司警告稱,偶爾可能會“提供不正確的信息”,“產(chǎn)生有害的指令或有偏見的內(nèi)容”,但稱計劃繼續(xù)完善該技術(shù),并提醒用戶“這還只是一個研究項目”。
人工智能將去向何方?
谷歌、Meta等眾多科技公司正在著手解決人工智能的準確性問題。Meta公司最近下線了其聊天機器人的在線預(yù)覽功能,因為它反復(fù)產(chǎn)生不正確和帶有偏見的信息。
但仍有專家警告稱,科技公司無法掌控這些技術(shù)的命運,像、和這樣的系統(tǒng)是基于多年來自由流傳的想法、研究論文和計算機代碼。《紐約時報》11日評論稱,像谷歌和這樣的公司可以以比別人更快的速度推動技術(shù)的發(fā)展,但是他們最新的技術(shù)已經(jīng)被復(fù)制和廣泛傳播,他們無法阻止人們利用這些系統(tǒng)來傳播錯誤信息。
上線后,特斯拉CEO埃隆·馬斯克在社交平臺上表示:“我們離強大到危險的AI(人工智能)不遠了”。作為公司的創(chuàng)始人之一,馬斯克顯然無限看好這類新技術(shù)的發(fā)展,但是他也不否認,強大的新技術(shù)往往伴隨著危險。
人工智能未來將發(fā)展到何種程度尚未可知,但可以確定的是,人工智能的監(jiān)管與控制問題近在眼前。
免責(zé)聲明:本文系轉(zhuǎn)載,版權(quán)歸原作者所有;旨在傳遞信息,不代表本站的觀點和立場和對其真實性負責(zé)。如需轉(zhuǎn)載,請聯(lián)系原作者。如果來源標注有誤或侵犯了您的合法權(quán)益或者其他問題不想在本站發(fā)布,來信即刪。
聲明:本站所有文章資源內(nèi)容,如無特殊說明或標注,均為采集網(wǎng)絡(luò)資源。如若本站內(nèi)容侵犯了原著者的合法權(quán)益,可聯(lián)系本站刪除。