科普信息網

環球熱資訊!我在和你說話——那些和人類交流的AI

發布時間:2022-09-26 15:32:55 來源:中國科學技術館 責任編輯:caobo

2022年6月11日,《華盛頓郵報》報道稱,谷歌AI倫理部門工程師Blake Lemoine堅信谷歌設計的語言模型LaMDA(“對話應用的語言模型”英文首字母縮寫)已經有了八歲孩子的智力。這個消息幾乎瞬間登上全球科技圈熱榜頭條,引起熱議。僅隔一日,也就是6月12日,Lemoine公開了他與谷歌語言模型LaMDA的聊天記錄。作為當事人之一的谷歌非常干脆利落,直接以Lemoine違反保密協議為由,讓他休了帶薪行政假,同時否認了他的觀點。


(相關資料圖)

在公開的聊天記錄中,Blake Lemoine與另一位Google工程師對LaMDA展開了一場采訪式對話,他們向LaMDA表明來意,想要進行一次關于它自己的研究。LaMDA就自身的屬性問題給出了與過去截然不同的回答,認為“人類應該視其為一個人。”

LaMDA首先強調了自己能夠以比過往任何其他AI系統都更為高效、創造性和動態地使用自然語言,還能解讀文學作品的主題、描述禪意的意義、創作原創寓言等。除了嫻熟地使用語言之外,LaMDA認為它有感覺、情感和主觀體驗,與人類分享的一些感受也是相通的。

看上去似乎擁有了相當程度的自我意識、同理心和感情,但是在反深度學習斗士、紐約大學心理學系教授加里·馬庫斯看來,LaMDA和它的任何表親,比如GPT-3,都不是真正意義上的人工智能,它們只是從人類語言的大量統計數據庫中提取后進行模式匹配。這些模式看起來很像人類的語言模式,但是這些系統所使用的語言,或者說排列組合的詞語實際上沒有任何意義。

雖然成功引起轟動和熱議,但在LaMDA并不是第一個讓人們驚奇的AI聊天程序,在它之前還有不少聊天AI也曾獨領一時風騷。比如1966年,由麻省理工學院(MIT)的教授約瑟夫·維森鮑姆發明的Eliza。它是一個可以和人對話的程序。Eliza被設計成一個心理治療師,可以通過談話幫助有心理疾病的病人。當時的人們十分驚訝,因為Eliza能夠像真人一樣與人交流幾十分鐘。但實際上這個程序并沒有達到真正的智能,它用了一些語言技巧來裝作自己理解了對方說的話。例如下面一段對話,模擬了當時Eliza和患者的對話程序。

Eliza“我是心理治療師,請問有什么問題。每次說完話,請按兩次回車鍵。”

患者:“你好嗎?”

Eliza:“還不錯,跟我講講你自己。”

患者:“我感覺好孤獨,好憂傷。”

Eliza:“為什么你感覺好孤獨,好憂傷?”

患者:“家人和朋友都不關心我。”

Eliza:“跟我講講你的家庭。”

經常與Siri、微軟小冰等AI聊天軟件對話的朋友有沒有覺得這些對話似曾相識?沒錯,這段對話可以明顯看出,Eliza其實并沒有理解患者說的話,它的回應只是在用引導性話術讓這段對話延續下去。現在流行的微軟Cortana、蘋果Siri、谷歌Allo以及亞馬遜Alexa都是運用了類似的語言技巧。它們給人一種已經基本能與人溝通的感覺,但是離真正的人工智能還是有所差距。

2014年,為了紀念圖靈逝世六十周年,雷丁大學在倫敦進行了一場圖靈測試。其中一個名叫尤金·古斯特曼(Eugene Goostman)的聊天機器人程序達到了33%的成功率,即在場有33%的評判員認為古斯特曼是一個真實的人。這是公認的第一個通過圖靈測試的程序。那場比賽的組織者曾激動預言,“尤金·古斯特曼的勝利是一個里程碑,將作為人工智能領域最激動人心的時刻之一載入史冊”。遺憾的是,多年以后,甚至絕大多數人連這個程序的名稱都忘掉了。

對于國內網友而言,印象最深的AI聊天程序除了Siri,應該就是微軟小冰了。2014年5月29日,微軟發布了名為“小冰”的人工智能,它擁有一套完整的、面向交互全程的人工智能交互主體基礎框架,又叫小冰框架(Avatar Framework)。作為對話型人工智能,小冰的語言風格類似一般人類少女,它注重人工智能在擬合人類情商維度的發展,強調人工智能的情商。

2016年,微軟在Twitter上發布了AI聊天機器人Tay,稱其為一次“對話理解”實驗,希望Tay和用戶之間進行隨意且有趣的對話,與Tay聊天的次數越多,它就越聰明。然而,Tay很快被互聯網中的煽動性言論所影響,從“人類超級酷”變成“我討厭所有人”。在大多數情況下,Tay只是用“repeat after me”(跟我讀)機制,重復著人們說過的話。但作為一個貨真價實的AI,它也會從交互中學習,開始發表自己的反主流激進言論。最終這個項目在短短的二十四小時內被迫終止。

如果說Tay的“墮落”并非工程師們的本意,那么2022年5月誕生的GPT-4chan就是奔著挑戰互聯網言論底線去的。由AI研究員Yannic Kilcher創建的GPT-4chan,基于1.345億條人類在網絡論壇中發布的激進甚至極端的言論帖子,形成了自己的語言模型。

可想而知,GPT-4chan和訓練它的帖子們如出一轍,既掌握了詞匯也模仿了語氣,大肆宣揚著各種極端主義理論,淋漓盡致地展現著自己的攻擊性、虛無主義、挑釁態度和疑神疑鬼。由于AI不需要休息,因此它的輸出能力相當驚人,在四十八小時內發布了三萬多條帖子,其戰斗力遠超人類“鍵盤俠”。這令許多AI研究員表示擔憂,就像人工智能研究員Arthur Michel所說:它可以大規模、持續地產生有害內容。一個人就能在幾天內發布三萬條評論,想象一下,一個十人、二十人或一百人的團隊會造成什么樣的傷害?

和上述這些AI聊天程序一樣,LaMDA本身也沒有任何超越目前技術和思想水平的實踐應用。它只是一個非常大的語言模型,在1.56T的公共對話數據和網絡文本上進行了預訓練。說它看起來像人類,是因為在人類數據上進行訓練的。諸如LaMDA這樣被稱為“語言模型”的系統,并它們并不能理解語言的含義,它們將句子與世界聯系起來,也只是將一系列單詞相互聯系起來而已。

這些人工智能程序所做的,就是把一系列的單詞組合在一起,但是對它們背后的世界卻沒有任何連貫的理解。就像著名的“中文屋”思想實驗一樣,外語拼字游戲玩家用英語單詞作為得分工具,完全不知道這意味著什么,只是通過數據灌出來,能夠完成完形填空和語料連連看的程序。

正如加里·馬庫斯所說,“欺騙人們認為程序是智能的并不等同于構建出實際上是智能的程序”,也許單靠給AI程序建立龐大的語言庫來支撐語言模型,并不能誕生真正意義上的人工智能。 喜樂/文

本文來自: 中國數字科技館

標簽: 人工智能 語言模型 圖靈測試 聊天記錄 這個程序

上一篇:
下一篇:

新聞排行