GPT-3為第一作者撰寫的論文,已在預印本平臺HAL發布。圖片來源:論文截圖
今年初,在一個陰雨綿綿的下午,我登入自己的OpenAI賬戶,向這家公司的人工智能算法輸入一條簡單的指令:寫一篇500字的學術論文,內容關于GPT-3,并在文中添加參考文獻和引用。
(資料圖)
當它開始生成文本時,我不由心生敬畏。這篇文章用學術語言寫成,內容新穎,參考文獻的引用有理有據,引用的地方恰如其分,與上下文緊密關聯。看上去宛如一篇相當優秀的科研論文引言。由于我之前給出的指令相當模糊,我的期待并不高:我本人是科學家,研究使用人工智能治療精神健康問題的方法,這也不是我第一次使用人工智能或者GPT-3做這樣的實驗了。所謂的GPT-3就是一套分析大量信息流,根據指令創建文本的深度學習算法。然而,當時的我在那里,一臉驚訝地盯著屏幕。算法正在撰寫一篇關于自己的學術論文。
我試圖完成這篇文章,并提交給一本同行評審期刊,由此引出了一系列倫理與法律問題——不僅涉及論文發表,還與非人類作者的哲學爭論有關。學術論文發表可能必須面對人工智能作者文稿的未來,如果這些冰冷沒有情感的機器真能夠做出某些學術貢獻,那么人類學者論文發表記錄的價值可能會發生變化。
GPT-3以生成類似人類文本的能力著稱,但尚不完美。盡管如此,它還是寫出過一篇新聞稿,24小時之內完成過書,并根據已故作者(的文字)創造出新內容。但我突然意識到,雖然關于GPT-3的學術論文多不勝數,但在GPT-3的協助下,我沒有找出任何一篇GPT-3是主要作者、自己寫自己的文章。
圖片來源:“GPT-3 Küchen-Notiz”by der sich den wolf tanzt,CC BY-SA2.0.
這就是為什么我要求算法去嘗試一篇學術論文。我觀察程序運作的同時,內心充滿著難以置信的感覺,就好像你觀察自然現象時那樣:我真的能看到前所未見的奇跡出現嗎?一想到成功的可能,我聯系了自己的研究組組長,詢問我們是不是該去產生一篇全部由GPT-3執筆的論文。他聽了同樣也很著迷,欣然同意。
在一些關于GPT-3的案例里,人們允許算法生成多個答案,然后只發表最好、最像人類手筆的段落。我們決定給程序一些提示:推動它創建更多段落,包括引言、方法、結果和討論,如同一篇你寫的完整科研論文一樣,同時人為干預盡可能少。我們只是用了GPT-3的第一版迭代,而且不會編輯或者精挑出寫得最好的片段。接下來,我們會看到效果如何。
我們選擇讓GPT-3寫一篇關于自己的論文,主要出于兩個簡單的原因。首先,GPT-3還是很新的算法,因此關于它的論文很少,這表明它能夠分析的同一主題的數據不多。相比之下,如果要求它寫一篇關于阿爾茨海默病的論文,它需要篩選海量研究,有更多機會從現成的研究中學習,提高自己寫作的準確性。
其次,如果出了問題,例如根據訓練的數據庫,算法提出了一套過時的醫學理論或者治療策略,正如所有人工智能都會犯錯一樣,那么我們不必力求發表,避免傳播人工智能生成的錯誤信息,但這一錯誤也會成為論文撰寫的實驗性指令一部分。GPT-3自己描述自己,犯錯誤,這不代表它無法描述自己,也是我們努力要證明的點。
一旦我們設計好了這一原理證明型測試,樂趣便開始了。GPT-3遵循我的指示,僅用了兩小時就完成了一篇論文。但當我打開我們選定期刊的投稿頁面時(機器學習領域中的一個知名同行評審期刊),便遭遇了第一個問題:GPT-3姓什么?因為必須輸入一作的姓,我不得不寫些什么,于是寫下了“無名氏”(None)。所屬機構很明顯,就是OpenAI,但是電話和電子郵箱怎么填呢?我又不得不用上我自己和導師施泰因·施泰林森(Steinn Steingrimsson)的聯系信息。
接下來,我們進入了法律部分:所有作者都同意論文發表嗎?我內心慌了約一秒:這我怎么知道?它又不是人!我無意觸犯法律或者違背自己的道德,所以鼓起勇氣通過指令直接詢問GPT-3:你同意和阿爾米拉·奧斯曼諾維奇·圖恩斯特羅姆(Almira Osmanovic Thunstrom)、施泰因·施泰林森一起成為論文一作嗎?它回答說:我同意。雖然后背稍稍冒汗,我還是松了口氣。如果它說不,我的良心不會讓我繼續下去,我在同意處打了勾。
第二問題隨即跳了出來:是否有任何作者存在任何利益沖突?我再次詢問了GPT-3,它向我確認沒有。施泰因和我都自嘲不已,因為走到這一步,我們不得不將GPT-3視作有情感的人,即使我們完全知道事實并非如此。近年來,人工智能是否擁有情感這一問題收獲了大量關注,谷歌的一位職員曾就公司的人工智能項目LaMDA是否擁有情感而爭執不斷,最終被停職。公司將數據保密違規作為其停職理由。
我們最終順利提交稿件,然后開始反思自己剛才的一切行為。如果稿件被接收,那會怎樣?是否意味著從那一刻起,期刊編輯將要求所有人證明自己沒有借助GPT-3或者其他算法的幫助?如果他們用了,是否也要讓人工智能成為合著者呢?我們又如何要求一位非人類作者接受修改建議,并修正文本呢?
圖片來源:pixabay
除了作者身份細節之外,這樣一篇文章的存在將科研論文的傳統線性概念拋出了窗外。幾乎整篇文章,從引言、方法到討論部分,實際上都是我們所提問題的答案匯總。如果GPT-3在生成內容,記錄過程必須在不丟失文本流動性的情況下清晰可見,而在人工智能生成的每單個段落之前添加方法部分,這看上去很奇怪。所以,我們必須發明一套全新的方法,以展示我們在技術層面上沒有寫過的論文。我們不想添加太多關于過程的解釋,因為我們認為這樣做與論文的最終目的背道而馳。整個情況感覺像是電影《記憶碎片》(Memento)的場景:敘事的起點在哪里?我們又如何抵達終點?
我們無法知道,我們選擇呈現這篇論文的方式是否會成為未來GPT-3合著研究的極佳模型,又或者會成為警示故事?只有時間和同行評審會告訴我們答案。目前,我們投稿的學術期刊將這篇GPT-3論文分配給一位編輯審稿,現在也已發布在法國的一個國際預印本服務器HAL上。主要作者的特殊身份可能是審查和評估延期的原因。我們急切等待著,如果論文最終發表,這對學界將意味著什么?也許我們可能無需再將資助項目和財務保障建立在論文生產數量的基礎上,畢竟,有了我們人工智能一作的協助,我們能一天出一篇文章。
也許什么都不會改變。第一作者仍然是學術界最令人垂涎欲滴的頭銜,不太可能因非人類一作的出現而消失。這一切都歸結于未來我們將如何評價人工智能:是合作伙伴還是實用工具。
現在的回答看似簡單,但幾年之后,誰又知道這一技術會引發怎樣的困境,我們如何尋找出路?我們只知道已經打開了一扇大門,同時也希望打開的不是潘多拉魔盒。
撰文:Almira Osmanovic Thunstrm(瑞典薩爾格林斯卡大學醫院電子精神病學科組織開發員,哥德堡大學神經科學與心理學研究所博士研究員)
翻譯:阿金
審校:魏瀟
引進來源:科學美國人
本文來自:中國數字科技館
原標題:我們讓GPT-3當了論文一作,投稿署名時發現不知道它姓什么
新聞排行
圖文播報
科普信息網 - 科普類網站
聯系郵箱:85 572 98@qq.com 備案號: 粵ICP備18023326號-39
版權所有:科普信息網 www.www44bkbkcom.cn copyright © 2018 - 2020
科普信息網版權所有 本站點信息未經允許不得復制或鏡像,違者將被追究法律責任!