這兩天,華為的AI詩人“樂府”引起不少熱度,用戶通過華為的這個AI,可以生成不同風(fēng)格的古詩,五言,七言、絕句,律詩,有不同的風(fēng)格可以選擇。這些古詩合轍押韻,而且頗有一番意境,如果不告訴你這是AI生成的,你很可能以為是古代哪位不知名詩人的遺作。
“樂府”的使用方法很簡單,只需要通過微信搜索小程序“EI體驗空間”,在里面就可以找到“樂府作詩”,打開之后,輸入想要使用的標(biāo)題,點擊“開始作詩”,接下來作詩的事,就交給AI來完成了。
華為這個作詩AI使用的,是OpenAI提出的預(yù)訓(xùn)練自然語言模型(Generative Pre-trained Language Model),簡稱GPT。今年6月,華為諾亞方舟實驗室就發(fā)表了一篇使用GPT模型創(chuàng)造中國古詩的論文,這個“樂府”AI的實現(xiàn)原理就來自這篇論文。
OpenAI是一個研究AI技術(shù)的非營利組織,成立于2015年底,總部位于舊金山。其背后的創(chuàng)始人就是“鋼鐵俠”伊隆·馬斯克,他和另一位創(chuàng)始人薩姆奧特曼出于對普遍的人工智能潛在風(fēng)險的擔(dān)憂,決定創(chuàng)辦這個組織。
不僅華為使用GPT模型,OpenAI自己也在使用GPT模型,他們還搞了一些“大新聞”。
最近,《麻省理工科技評論》就發(fā)布了一篇報道,OpenAI對他們生產(chǎn)假新聞的AI系統(tǒng)——fake-news-spewing進行訓(xùn)練,經(jīng)過40GB網(wǎng)絡(luò)文本的投喂之后,這個AI已經(jīng)可以偽造出一篇肯尼迪總統(tǒng)的演講,這些演講的詞句看起來好像真的出自肯尼迪總統(tǒng)之口。這個假新聞系統(tǒng),使用的就是GPT的升級版本GPT-2。
? ? ? ? ??
??
事實上,早在今年2月份,OpenAI就公布了他們的GPT-2模型。通過使用網(wǎng)絡(luò)上大量的文本進行訓(xùn)練后,該算法就能夠翻譯文本、回答問題和執(zhí)行其他有用的任務(wù)。他們甚至還用這個算法生成了一篇俄羅斯對美宣戰(zhàn)假新聞。
? ? ? ? ? ???
(AI系統(tǒng)偽造俄羅斯對美宣戰(zhàn)的新聞)
這個AI系統(tǒng)很容易讓人產(chǎn)生不安的聯(lián)想,如果有人使用AI大量造謠怎么辦?要知道,在人人可以成為自媒體的互聯(lián)網(wǎng)時代,辟謠已經(jīng)成為一項艱難的任務(wù),一個謠言很容易被廣泛傳播,但是辟謠的信息卻沒有這么高的傳播效率。人們常常感嘆,“造謠一張嘴,辟謠跑斷腿”。一旦大批量的謠言產(chǎn)生,辨別都將是非常困難的事情,更別提進行辟謠。而且,目前還沒有有效的算法可以完全實現(xiàn)AI識別。為了避免被濫用,OpenAI也沒有完全開源這個算法。
AI的“創(chuàng)造力”已經(jīng)越來越強,不僅可以制造以假亂真的假新聞,還能制造出根本不存在的圖片和視頻。
前幾天,視頻換臉App ZAO就在朋友圈火了一把,用戶只要下載安裝ZAO并登錄,上傳一張照片,就能把平臺提供的各種短視頻里明星們的臉替換成自己的。但隨后就因為用戶協(xié)議、隱私等問題引發(fā)爭議,接著被微信封殺,并被工信部約談。ZAO也修改了用戶協(xié)議并發(fā)表公開道歉。
? ? ? ? ? ? ? ? ? ? ? ?
基于深度學(xué)習(xí)的AI換臉技術(shù)DeepFake很早就有了,這項技術(shù)現(xiàn)在早已被開源,已經(jīng)有很多軟件使用這項技術(shù),普通用戶使用這些軟件,只需簡單幾步,就可以把照片或視頻中的臉換成任何自己喜歡的人。
? ? ? ? ? ? ? ? ? ? ? ?
DeepFake背后,使用的則是人工智能算法GAN(生成對抗網(wǎng)絡(luò)),這個算法簡單來說,就是使用兩個系統(tǒng)對抗,一個系統(tǒng)是生成假數(shù)據(jù)的生成網(wǎng)絡(luò),另外一個則是判別數(shù)據(jù)真?zhèn)蔚呐袆e網(wǎng)絡(luò)。然后用生成網(wǎng)絡(luò)從潛在空間(latent space)中隨機取樣作為輸入,其輸出結(jié)果需要盡量模仿訓(xùn)練集中的真實樣本。判別網(wǎng)絡(luò)則對這些結(jié)果進行判別,將生成網(wǎng)絡(luò)的輸出從真實樣本中盡可能分辨出來,生成網(wǎng)絡(luò)盡可能欺騙判別網(wǎng)絡(luò)。最終目的是使判別網(wǎng)絡(luò)無法判斷生成網(wǎng)絡(luò)的輸出結(jié)果是否真實。
這樣,通過GAN算法就可以生產(chǎn)出以假亂真的照片、視頻、三維模型等,由于這些內(nèi)容經(jīng)過對抗,判別網(wǎng)絡(luò)是無法辨別真假的,這就意味著。這些經(jīng)過深度學(xué)習(xí)創(chuàng)造出的內(nèi)容,人類難以辨別真假,AI也不行。
這樣的結(jié)果是,將來互聯(lián)網(wǎng)上會出現(xiàn)大量真假難辨的圖片和視頻,以前,我們可以用“眼見為實”來辨別一件事情的真?zhèn)危?,今后面對海量的照片和視頻,我們很可能再也無法分辨它們是真實的還是由AI生成的。更進一步,根據(jù)GAN算法的原理,這些內(nèi)容使用AI也難以辨別。也就是說,我們將處于一個真假難辨的世界。
實際上AI真的已經(jīng)可以直接合成足以騙過人眼的照片,英偉達去年推出了Style GAN人工智能算法,使用這個算法就可以生成騙過人眼的假人臉。
一位來自Uber的軟件工程師Philip Wang,很快就把這項技術(shù)落實了,他創(chuàng)立了一個網(wǎng)站:ThisPersonDoesNotExist.com,每次打開這個網(wǎng)站,都會隨機生成一張人臉照片,這些人臉看不出有什么問題,但是,他們都不是真實存在的人。
? ? ? ? ? ??(ThisPersonDoesNotExist.com上隨機生成的照片)
類似的技術(shù)越來越多,文字、圖像甚至視頻可以使用AI合成,語音也不例外。早在2016年,谷歌就已經(jīng)推出了基于深度學(xué)習(xí)的原始音頻生成模型WaveNet?,可以運用該技術(shù)合成和語料高度相似的語音。國內(nèi)的科大訊飛、搜狗、騰訊等公司也在做相關(guān)研究,比如現(xiàn)在高德地圖上志玲姐姐、郭德綱的聲音,就是通過AI語音合成技術(shù)合成的。
? ? ? ? ??
未來,我們很可能面臨難以分辨真假的問題,一則突發(fā)新聞,很可能是AI生成的,一張照片,可能上面的內(nèi)容根本就不曾真實存在過。一段視頻,很可能表達的所有事實都是被修改過的。人工智能如此強大,騙過人類似乎再簡單不過。也許,現(xiàn)在拒絕AI的發(fā)展還來得及,不然以后的災(zāi)難誰都無法預(yù)料。
但是技術(shù)本身是沒有價值取向的,無論有益還是有害,都是在于人類的使用。如果濫用,難免滑向不見底的深淵,但只要正確地使用,技術(shù)帶來的就是福祉。比如,用于生成虛假圖片的GAN算法,最近就被用到了醫(yī)藥研究上。
近日,人工智能藥物發(fā)現(xiàn)公司Insilico Medicine、藥明康德以及多倫多大學(xué)的科學(xué)家們使用了強化學(xué)習(xí)技術(shù)的新AI系統(tǒng),把從選擇一個靶點到形成潛在的新藥候選分子的過程,縮短到了僅僅21天,比傳統(tǒng)方式快了15倍。Insilico的方法就是基于GAN(生成對抗網(wǎng)絡(luò))和強化學(xué)習(xí)兩種人工智能,在這里,GAN算法成了可以治病救人的良方。
(圖源:麻省理工科技評論)
回到要不要阻止AI發(fā)展的問題,如果害怕未來AI可能會帶來災(zāi)難,一開始就阻止AI技術(shù)的發(fā)展,那么,用AI造福人類的可能性也就沒有了。就像GAN技術(shù)一樣,如果,我們害怕它會造出一個真假難辯的世界,那么Insilico提高15倍效率的技術(shù)也就不復(fù)存在了。我們關(guān)上了通往地獄的窗,但通往天堂的大門可能也因此關(guān)閉。
所以,應(yīng)該積極讓技術(shù)向善,像馬化騰在“2019世界人工智能大會”上發(fā)表演講時說的那樣,以“科技向善”引領(lǐng)AI全方位治理。當(dāng)技術(shù)可能被用于作惡時,除了主動去避免,更好的辦法可能就是用技術(shù)去對抗了。比如,加州大學(xué)伯克利分校和南加州大學(xué)的研究者,就在研究新的工具用于識別假照片。麻省理工學(xué)院-IBM Watson 人工智能實驗室和哈佛大學(xué)自然語言處理實驗室的研究人員,也在研究對抗OpenAI的GPT-2模型的辦法。
像AI這樣的強大工具,本身很復(fù)雜,可以向善,也可以作惡。我們要做的應(yīng)該是讓這個工具更好地服務(wù)我們,如果這個工具面臨濫用的風(fēng)險,最應(yīng)該考慮的,不是解決掉工具,而是解決風(fēng)險。