外媒The Verge報道稱一個名為ThisPersonDoesNotExist.com的網(wǎng)站正在使用人工智能(AI)生成令人吃驚的逼真虛假人臉。而現(xiàn)在另一個網(wǎng)站W(wǎng)hichFaceIsReal.com可以讓用戶測試他們區(qū)分AI產(chǎn)生的虛假臉部圖像和真實臉部圖像的能力。
WhichFaceIsReal.com由來自華盛頓大學的兩位學者Jevin West和Carl Bergstrom創(chuàng)建,他們都研究信息如何通過社會傳播。他們認為人工智能產(chǎn)生的虛假臉部圖像的興起可能是麻煩的,破壞了社會對證據(jù)的信任。
“當這樣的新技術(shù)出現(xiàn)時,最危險的時期就是技術(shù)出現(xiàn)在那里,但公眾卻沒有意識到這一點,”Bergstrom告訴The Verge。“那時它可以最有效地使用。”
“所以我們要做的就是教育公眾,讓人們意識到這項技術(shù)就在那里,”West表示。“就像最終大多數(shù)人都知道你可以利用Photoshop對一張照片進行處理一樣。”
ThisPersonDoesNotExist.com生成的虛假臉部圖像
兩個網(wǎng)站都使用稱為生成對抗網(wǎng)絡(luò)(或簡稱GAN)的機器學習方法來生成虛假圖像。這些網(wǎng)站通過大量數(shù)據(jù)(真實人物的大量肖像)進行操作; 學習其中的模式,然后嘗試復(fù)制他們所“看到”的內(nèi)容。
GAN之所以如此優(yōu)秀,是因為它們會自己進行測試。網(wǎng)絡(luò)的一部分生成面部圖像,另一部分將它們與訓(xùn)練數(shù)據(jù)進行比較。如果它可以區(qū)分,生成器將被送回繪圖板以改善其工作。這些技術(shù)可用于處理音頻和視頻以及圖像。雖然這些系統(tǒng)可以完成的任務(wù)有限,但它們正在穩(wěn)步提升。
在這個人工智能生成的臉部圖像的案例中, Bergstrom和West指出,一次惡意攻擊可能會在恐怖襲擊事件后傳播錯誤信息。例如,人工智能可用于生成在線傳播的假罪魁禍首,在社交網(wǎng)絡(luò)上傳播。
在這些情況下,記者通常會嘗試使用谷歌的反向圖像搜索等工具來驗證圖像的來源。但這不適用于AI虛假圖像。“如果你想在這種情況下注入錯誤的信息,如果你張貼了犯罪者而且是其他人的照片,那么它會很快得到糾正,”Bergstrom表示。“但如果你使用一個根本不存在的人的照片?想想跟蹤它的難度。”
他們指出,學者和研究人員正在開發(fā)大量可以發(fā)現(xiàn)深度偽造的工具。“我的理解是,現(xiàn)在它實際上很容易做到,”West指出。通過上面的測試,你可能發(fā)現(xiàn)你可以區(qū)分AI生成的臉部圖像和真實的臉部圖像。
“但這些虛假照片會變得更好。在三年后,[這些虛假圖像]將難以區(qū)分,”West表示。當這種情況發(fā)生時,知道將是成功的一半。Bergstrom稱:“我們的信息絕不是人們不應(yīng)該相信任何事情。我們的信息恰恰相反:它不是輕信。”
標簽:
新聞排行
圖文播報
科普信息網(wǎng) - 科普類網(wǎng)站
聯(lián)系郵箱:85 572 98@qq.com 備案號: 粵ICP備18023326號-39
版權(quán)所有:科普信息網(wǎng) www.www44bkbkcom.cn copyright © 2018 - 2020
科普信息網(wǎng)版權(quán)所有 本站點信息未經(jīng)允許不得復(fù)制或鏡像,違者將被追究法律責任!