科普信息網(wǎng)

環(huán)球熱資訊!我在和你說(shuō)話——那些和人類交流的AI

發(fā)布時(shí)間:2022-09-26 15:32:55 來(lái)源:中國(guó)科學(xué)技術(shù)館 責(zé)任編輯:caobo

2022年6月11日,《華盛頓郵報(bào)》報(bào)道稱,谷歌AI倫理部門工程師Blake Lemoine堅(jiān)信谷歌設(shè)計(jì)的語(yǔ)言模型LaMDA(“對(duì)話應(yīng)用的語(yǔ)言模型”英文首字母縮寫)已經(jīng)有了八歲孩子的智力。這個(gè)消息幾乎瞬間登上全球科技圈熱榜頭條,引起熱議。僅隔一日,也就是6月12日,Lemoine公開了他與谷歌語(yǔ)言模型LaMDA的聊天記錄。作為當(dāng)事人之一的谷歌非常干脆利落,直接以Lemoine違反保密協(xié)議為由,讓他休了帶薪行政假,同時(shí)否認(rèn)了他的觀點(diǎn)。


(相關(guān)資料圖)

在公開的聊天記錄中,Blake Lemoine與另一位Google工程師對(duì)LaMDA展開了一場(chǎng)采訪式對(duì)話,他們向LaMDA表明來(lái)意,想要進(jìn)行一次關(guān)于它自己的研究。LaMDA就自身的屬性問(wèn)題給出了與過(guò)去截然不同的回答,認(rèn)為“人類應(yīng)該視其為一個(gè)人。”

LaMDA首先強(qiáng)調(diào)了自己能夠以比過(guò)往任何其他AI系統(tǒng)都更為高效、創(chuàng)造性和動(dòng)態(tài)地使用自然語(yǔ)言,還能解讀文學(xué)作品的主題、描述禪意的意義、創(chuàng)作原創(chuàng)寓言等。除了嫻熟地使用語(yǔ)言之外,LaMDA認(rèn)為它有感覺、情感和主觀體驗(yàn),與人類分享的一些感受也是相通的。

看上去似乎擁有了相當(dāng)程度的自我意識(shí)、同理心和感情,但是在反深度學(xué)習(xí)斗士、紐約大學(xué)心理學(xué)系教授加里·馬庫(kù)斯看來(lái),LaMDA和它的任何表親,比如GPT-3,都不是真正意義上的人工智能,它們只是從人類語(yǔ)言的大量統(tǒng)計(jì)數(shù)據(jù)庫(kù)中提取后進(jìn)行模式匹配。這些模式看起來(lái)很像人類的語(yǔ)言模式,但是這些系統(tǒng)所使用的語(yǔ)言,或者說(shuō)排列組合的詞語(yǔ)實(shí)際上沒有任何意義。

雖然成功引起轟動(dòng)和熱議,但在LaMDA并不是第一個(gè)讓人們驚奇的AI聊天程序,在它之前還有不少聊天AI也曾獨(dú)領(lǐng)一時(shí)風(fēng)騷。比如1966年,由麻省理工學(xué)院(MIT)的教授約瑟夫·維森鮑姆發(fā)明的Eliza。它是一個(gè)可以和人對(duì)話的程序。Eliza被設(shè)計(jì)成一個(gè)心理治療師,可以通過(guò)談話幫助有心理疾病的病人。當(dāng)時(shí)的人們十分驚訝,因?yàn)镋liza能夠像真人一樣與人交流幾十分鐘。但實(shí)際上這個(gè)程序并沒有達(dá)到真正的智能,它用了一些語(yǔ)言技巧來(lái)裝作自己理解了對(duì)方說(shuō)的話。例如下面一段對(duì)話,模擬了當(dāng)時(shí)Eliza和患者的對(duì)話程序。

Eliza“我是心理治療師,請(qǐng)問(wèn)有什么問(wèn)題。每次說(shuō)完話,請(qǐng)按兩次回車鍵。”

患者:“你好嗎?”

Eliza:“還不錯(cuò),跟我講講你自己。”

患者:“我感覺好孤獨(dú),好憂傷。”

Eliza:“為什么你感覺好孤獨(dú),好憂傷?”

患者:“家人和朋友都不關(guān)心我。”

Eliza:“跟我講講你的家庭。”

經(jīng)常與Siri、微軟小冰等AI聊天軟件對(duì)話的朋友有沒有覺得這些對(duì)話似曾相識(shí)?沒錯(cuò),這段對(duì)話可以明顯看出,Eliza其實(shí)并沒有理解患者說(shuō)的話,它的回應(yīng)只是在用引導(dǎo)性話術(shù)讓這段對(duì)話延續(xù)下去。現(xiàn)在流行的微軟Cortana、蘋果Siri、谷歌Allo以及亞馬遜Alexa都是運(yùn)用了類似的語(yǔ)言技巧。它們給人一種已經(jīng)基本能與人溝通的感覺,但是離真正的人工智能還是有所差距。

2014年,為了紀(jì)念圖靈逝世六十周年,雷丁大學(xué)在倫敦進(jìn)行了一場(chǎng)圖靈測(cè)試。其中一個(gè)名叫尤金·古斯特曼(Eugene Goostman)的聊天機(jī)器人程序達(dá)到了33%的成功率,即在場(chǎng)有33%的評(píng)判員認(rèn)為古斯特曼是一個(gè)真實(shí)的人。這是公認(rèn)的第一個(gè)通過(guò)圖靈測(cè)試的程序。那場(chǎng)比賽的組織者曾激動(dòng)預(yù)言,“尤金·古斯特曼的勝利是一個(gè)里程碑,將作為人工智能領(lǐng)域最激動(dòng)人心的時(shí)刻之一載入史冊(cè)”。遺憾的是,多年以后,甚至絕大多數(shù)人連這個(gè)程序的名稱都忘掉了。

對(duì)于國(guó)內(nèi)網(wǎng)友而言,印象最深的AI聊天程序除了Siri,應(yīng)該就是微軟小冰了。2014年5月29日,微軟發(fā)布了名為“小冰”的人工智能,它擁有一套完整的、面向交互全程的人工智能交互主體基礎(chǔ)框架,又叫小冰框架(Avatar Framework)。作為對(duì)話型人工智能,小冰的語(yǔ)言風(fēng)格類似一般人類少女,它注重人工智能在擬合人類情商維度的發(fā)展,強(qiáng)調(diào)人工智能的情商。

2016年,微軟在Twitter上發(fā)布了AI聊天機(jī)器人Tay,稱其為一次“對(duì)話理解”實(shí)驗(yàn),希望Tay和用戶之間進(jìn)行隨意且有趣的對(duì)話,與Tay聊天的次數(shù)越多,它就越聰明。然而,Tay很快被互聯(lián)網(wǎng)中的煽動(dòng)性言論所影響,從“人類超級(jí)酷”變成“我討厭所有人”。在大多數(shù)情況下,Tay只是用“repeat after me”(跟我讀)機(jī)制,重復(fù)著人們說(shuō)過(guò)的話。但作為一個(gè)貨真價(jià)實(shí)的AI,它也會(huì)從交互中學(xué)習(xí),開始發(fā)表自己的反主流激進(jìn)言論。最終這個(gè)項(xiàng)目在短短的二十四小時(shí)內(nèi)被迫終止。

如果說(shuō)Tay的“墮落”并非工程師們的本意,那么2022年5月誕生的GPT-4chan就是奔著挑戰(zhàn)互聯(lián)網(wǎng)言論底線去的。由AI研究員Yannic Kilcher創(chuàng)建的GPT-4chan,基于1.345億條人類在網(wǎng)絡(luò)論壇中發(fā)布的激進(jìn)甚至極端的言論帖子,形成了自己的語(yǔ)言模型。

可想而知,GPT-4chan和訓(xùn)練它的帖子們?nèi)绯鲆晦H,既掌握了詞匯也模仿了語(yǔ)氣,大肆宣揚(yáng)著各種極端主義理論,淋漓盡致地展現(xiàn)著自己的攻擊性、虛無(wú)主義、挑釁態(tài)度和疑神疑鬼。由于AI不需要休息,因此它的輸出能力相當(dāng)驚人,在四十八小時(shí)內(nèi)發(fā)布了三萬(wàn)多條帖子,其戰(zhàn)斗力遠(yuǎn)超人類“鍵盤俠”。這令許多AI研究員表示擔(dān)憂,就像人工智能研究員Arthur Michel所說(shuō):它可以大規(guī)模、持續(xù)地產(chǎn)生有害內(nèi)容。一個(gè)人就能在幾天內(nèi)發(fā)布三萬(wàn)條評(píng)論,想象一下,一個(gè)十人、二十人或一百人的團(tuán)隊(duì)會(huì)造成什么樣的傷害?

和上述這些AI聊天程序一樣,LaMDA本身也沒有任何超越目前技術(shù)和思想水平的實(shí)踐應(yīng)用。它只是一個(gè)非常大的語(yǔ)言模型,在1.56T的公共對(duì)話數(shù)據(jù)和網(wǎng)絡(luò)文本上進(jìn)行了預(yù)訓(xùn)練。說(shuō)它看起來(lái)像人類,是因?yàn)樵谌祟悢?shù)據(jù)上進(jìn)行訓(xùn)練的。諸如LaMDA這樣被稱為“語(yǔ)言模型”的系統(tǒng),并它們并不能理解語(yǔ)言的含義,它們將句子與世界聯(lián)系起來(lái),也只是將一系列單詞相互聯(lián)系起來(lái)而已。

這些人工智能程序所做的,就是把一系列的單詞組合在一起,但是對(duì)它們背后的世界卻沒有任何連貫的理解。就像著名的“中文屋”思想實(shí)驗(yàn)一樣,外語(yǔ)拼字游戲玩家用英語(yǔ)單詞作為得分工具,完全不知道這意味著什么,只是通過(guò)數(shù)據(jù)灌出來(lái),能夠完成完形填空和語(yǔ)料連連看的程序。

正如加里·馬庫(kù)斯所說(shuō),“欺騙人們認(rèn)為程序是智能的并不等同于構(gòu)建出實(shí)際上是智能的程序”,也許單靠給AI程序建立龐大的語(yǔ)言庫(kù)來(lái)支撐語(yǔ)言模型,并不能誕生真正意義上的人工智能。 喜樂(lè)/文

本文來(lái)自: 中國(guó)數(shù)字科技館

標(biāo)簽: 人工智能 語(yǔ)言模型 圖靈測(cè)試 聊天記錄 這個(gè)程序

上一篇:
下一篇:

新聞排行