【獵云網(微信號:)】9月28日報道(編譯:讓妲己看看你的心)
在俄羅斯小說家Victor Pelevin的賽博朋克小說《Homo Zapiens》中,一位名叫Babylen Tatarsky的詩人在蘇聯解體后、俄羅斯經濟崩潰之際,被一位大學老友聘為廣告文案撰稿人,來到了莫斯科工作。Tatarsky有著巧妙的文字游戲天賦,他很快就在公司里一路青云直上。在那里他發現,像當時的俄羅斯總統Boris Yeltsin這樣的政治家和重大政治事件實際上都是虛擬的模型。而現如今,隨著越來越復雜的DeepFake產品的出現,似乎Pelevin在小說中描繪的情境正在慢慢實現。
在DeepFake(或被研究人員稱之為“合成媒體”)領域內,人們的注意力主要集中在可能對政治現實造成嚴重破壞的AI換臉之上,以及其他能夠模仿一個人的寫作風格和聲音的深度學習算法上。但合成媒體技術的另一個分支正在迅速發展:針對全身的DeepFake。
2018年8月,加州大學伯克利分校的研究人員發布了一篇題為《每個人都會跳舞》的論文及相關視頻,展示了深度學習算法如何將專業舞者的動作轉移到業余舞者身上。雖然看起來很原始,但這表明機器學習研究人員正在處理更困難的任務,即制造全身范圍的DeepFake。同樣在2018年,德國海德堡大學Bjorn Ommer博士領導的一個研究團隊發表了一篇關于訓練機器人真實呈現人類動作的論文。今年4月,日本人工智能公司Data Grid開發了一種人工智能,可以自動生成不存在的人的全身模型,這可以在時尚和服裝行業擁有實際的應用。
雖然很明顯,全身DeepFakes有一些有趣的商業應用,比如DeepFake舞蹈應用,或者在體育和生物醫學研究等領域,但在如今因造謠和假新聞而分化的政治氣候之下,惡意使用案例正日益受到關注。目前,全身DeepFakes還不能完全愚弄人類的眼睛,但就像任何深度學習技術一樣,這一領域也會在不遠的將來取得進步。這只是一個時間問題,即全身DeepFake多久會變得與真人難以區分。
為了制造DeepFakes,計算機科學家們使用一種生成式對抗網絡(簡稱GANs)。這些網絡通常由兩個神經網絡組成,一個是合成器或生成網絡,另一個是檢測器或判別網絡。這些神經網絡會在一個經過改進的反饋回路中工作,以創建真實的合成圖像和視頻。合成器從數據庫創建圖像,而后者從另一個數據庫工作,確定合成器的圖像是否準確和可信。
第一次惡意使用DeepFakes的案例發生在Reddit上,Scarlett Johansson等女演員的臉被替換到色情演員的臉上。Fast.ai的Rachel Thomas表示,目前存在的95%的DeepFakes都是色情用例,目的是用虛假的性行為騷擾某些人。Thomas說:“有些DeepFakes視頻并不一定會使用非常復雜的技術。但是,這種情況正在開始改變?!?/p>
Farid指出,中國的DeepFake應用Zao說明了這項技術在不到兩年的時間里發展得有多迅速。
Farid說:“我看到的那些來自Zao的視頻看起來非常非常好,而且有很多人工的改良在其中,使之看起來就像電影版本中臉部動作的那種。技術正在不斷的發展,要讓DeepFake作為一個應用進行大規模的工作,并讓數百萬人下載到手機上,這是很困難的。Zao的成功標志著DeepFake的成熟?!?/p>
“有了DeepFake的圖像和視頻,我們基本上實現了CGI技術的民主化。我們已經把它從好萊塢電影公司的手中奪過來,交給了YouTube的視頻制作者們。”
Bj?rn Ommer,海德堡大學圖像處理合作實驗室(HCI)和科學計算跨學科中心(IWR)的計算機視覺教授,領導著一個研究和開發全身合成媒體的團隊。與該領域的大多數研究人員一樣,該小組的總體目標是理解圖像,并教機器如何理解圖像和視頻。最終,他希望團隊能夠更好地理解人類是如何理解圖像的。
Ommer說:“我們已經看到了合成的化身,不僅是在游戲行業,而且在許多其他領域創造了收入。特別是對我的團隊來說,我們考慮的是完全不同的領域,比如生物醫學研究。我們想要更詳細地了解人類甚至是動物,我們希望隨著時間的推移,擴大到一些與殘疾相關的行為等等?!?/p>
在合成人臉和全身的過程中存在著關鍵的差異。Ommer說,人們已經對人臉合成進行了更多深入的研究。這有幾個原因:首先,任何數碼相機或智能手機都有內置的人臉檢測功能,這種技術可以用于檢測微笑或識別正在看節目的觀眾。這樣的應用可以產生收益,從而帶來更多的研究。但是,正如Ommer所說,它們也導致了“大量的數據集組裝、數據管理和人臉圖像獲取,這些都是建立深度學習研究的基礎?!?/p>
第二,對Ommer來說更有趣的是,雖然每個人的臉看起來都不一樣,但是當把臉和整個人的身體相比較時,并沒有太大的可變性?!斑@就是為什么對面部的研究已經到了一個階段,我想說,相對于面部合成技術來說,人體存在著更多的可變性,處理起來更加復雜,如果你朝著這個方向前進,還需要學習更多?!?/p>
Ommer不確定什么時候完全合成的身體會達到他和研究人員想要的質量。然而,從惡意DeepFake的成熟用例來看,Ommer指出,即使沒有深度學習計算機視覺智能、人工智能或其他技術所創造的模仿,人類也已經很容易被欺騙。慢鏡頭拍攝的Nancy Pelosi視頻讓這位眾議院議長顯得醉醺醺的。在他看來,這段視頻表明,這種帶有非常簡單轉折的DeepFakes的出現,可能會讓某些社會階層信以為真。
Ommer說:“但是,如果你想讓更多的人相信DeepFake的圖片或視頻,還需要幾年的時間。”Ommer認為未來,全身DeepFake將變得更便宜和更普遍?!把芯可鐓^本身已經朝著一個方向發展,這一點得到了很多的贊賞。它們對我們所看到的算法容易獲得的穩定進展負有責任,比如Github等。所以,你可以從一些論文中下載最新的代碼,然后,在不了解隱藏內容的情況下,直接應用它?!?/p>
并不是每個人都能創造出一部“轟動一時的DeepFake”。但是,Ommer說,隨著時間的推移,金錢將不再是算法資源方面的問題,軟件的適用性也將變得容易得多。Farid說,有了全身DeepFake,惡意制造者就可以利用DeepFake技術讓靜止圖像直接對著攝像機說話,讓目標做他們永遠不會做和說的事情。
2016年美國大選期間假新聞的爆炸,以及2017年DeepFake的興起,激發了調查記者Van de Weghe對合成媒體的研究。2018年夏天,他開始在斯坦福大學設立獎學金,研究打擊惡意使用DeepFake的方法。
Van de Weghe說:“受威脅最大的不是大人物、大政客和大名人,而是像你我這樣的普通人、女記者,還有一些邊緣化的群體,他們可能或已經成為DeepFake的受害者。”
兩周前,荷蘭新聞主播Dionne Stax發現自己的臉被DeepFake到了一名色情女明星的臉上,這段視頻被上傳到PornHub網站并在互聯網上傳播。盡管PornHub很快刪除了這段視頻,但Van de Weghe說,她的聲譽已經受到了損害。
全身DeepFake可能會為記者行業帶來怎樣的影響呢?Van de Weghe提到了2018年美國有線電視新聞網白宮首席記者Jim Acosta的例子。在陰謀論網站Infowars編輯Paul Joseph Watson上傳的一段視頻中,Acosta似乎咄咄逼人地推搡著一名試圖拿他麥克風的白宮工作人員。由C-SPAN播出的原始片段與Watson上傳的有明顯不同。Infowars的編輯聲稱他并沒有篡改視頻,并將出現的任何差異歸因于“視頻壓縮”。但是,正如《獨立報》在編輯時間軸上對視頻進行的并排分析所顯示的,Watson的視頻缺少了原視頻的幾幀。全身DeepFake就像編輯視頻幀一樣,可以改變事件的真實性。
Deeptrace Labs成立于2018年,是一家網絡安全公司,正在開發基于計算機視覺和深度學習的工具,以分析和理解視頻,尤其是那些可以被人工智能操縱或合成的視頻。該公司創始人Giorgio Patrini曾在阿姆斯特丹大學德爾塔實驗室從事深度學習的博士后研究。他說,幾年前,他開始研究預防或防范未來合成媒體濫用的相關技術。
Patrini認為,由合成人體、人臉和音頻組成的惡意DeepFake,將很快被用來攻擊記者和政客。他指的是一段深度偽造的色情視頻,視頻中印度記者Rana Ayyub的臉被換到了一名色情女演員的身體上,這是一場虛假信息運動的一部分,目的是抹黑她的調查報道。此前,她公開要求對強奸和謀殺一名8歲克什米爾女孩的行為進行司法審判。今年3月,Deeptrace Labs對加蓬總統Ali Bongo的DeepFake進行了調查。盡管這個非洲國家的許多人認為Bongo一動不動的臉、眼睛和身體暗示著一個深層的騙局,包括加蓬軍方在內的許多人認為Bongo的臉、眼睛和身體都是假的,加蓬軍方基于這一信念發動了一場失敗的政變。Patrini表示,他不相信總統的視頻是合成的。
Patrini說:“我們找不到任何理由相信這是一件DeepFake。我想,這后來被證實,總統還活著,但是他中風了。我想在這里指出的重點是,一個視頻是否是假的并不重要,重要的是人們知道它會在公眾輿論中引發懷疑,在某些地方還可能引發暴力。”
最近,Van de Weghe了解到,一名政黨運營人員接觸了一位最受歡迎的DeepFake創作者,要求他利用DeepFake傷害某個人。在未來,這種定制的DeepFake可能會成為大生意。
Van de Weghe說:“用DeepFake可以賺錢,人們會點開看的。所以,一個政府不必造假,他們只要聯系一個專門制造DeepFake的人就可以?!?/p>
《華爾街日報》最近報道稱,一家英國能源公司的首席執行官被騙,將24.3萬美元轉入一家匈牙利供應商的賬戶。這位高管說,他相信自己是在和老板談話,他的老板似乎已經批準了這筆交易?,F在,這位首席執行官認為他是一場“網絡釣魚”音頻深度詐騙的受害者。Farid認為,DeepFake的其他欺詐性金融計劃(可能包括全身DeepFake)只是時間問題罷了。
Farid說:“我可以制作一個貝佐斯的DeepFake假視頻,操縱他說亞馬遜的股價正在下跌。想想看,做空亞馬遜股票能賺多少錢。當你控制它的時候,傷害已經造成了。現在再想象一下一個民主黨候選人說一些非法或不敏感的話的視頻,你認為在選舉前一天晚上這樣的行為可以左右成千上萬選民的投票嗎?”
Farid認為,社交媒體和DeepFake視頻的結合,無論是面部還是全身,都很容易造成大破壞。社交媒體公司基本上無法或不愿意調整其平臺和內容,因此DeepFake可以像野火一樣蔓延。
他表示:“當你把創建DeepFake內容的能力與在全球發布和消費內容的能力結合起來時,就會出現問題。我們生活在一個高度分化的社會,原因有很多,人們會把意見相左的人往壞處想?!?/p>
但是對于Fast.AI的Thomas說,在新的網絡沖突中,DeepFake幾乎沒有必要對政治進程產生負面影響,因為政府和行業已經在與書面形式的虛假信息作斗爭。她說,這些風險不僅與技術有關,還與人為因素有關。社會兩極分化,美國的大片地區不再有他們可以信任的真理來源。
這種不信任可能會讓有政治動機的DeepFake創造者有機可乘。正如隱私學者Danielle Citron所指出的,當DeepFake被揭穿時,它可以向那些相信謊言的人暗示,謊言是有一定道理的。Citron稱之為“騙子的紅利”,Farid認為,全身DeepFake技術的進步將使這類邪惡問題變得更糟。受到《每個人都會跳舞》等大學研究和Zao等企業的推動,這項技術正在快速發展,貨幣化也只是時間問題。
Farid說:“一旦你能做全身動作,就不再只是腦袋說話了,你可以模擬人們做愛或殺人。未來就在眼前嗎?不一定。但最終,也許就是一兩年后,人們就能做全身程度的假動作,這并不是沒有道理的,而且技術會非常強大?!?/p>
目前,科技行業還沒有達成根除DeepFake的共識。許多不同的技術正在研究和測試中。
例如,Van de Weghe的研究團隊創造了各種內部挑戰,探索了不同的方法。一個研究小組研究了膠片的數字水印以識別DeepFake。另一個團隊使用區塊鏈技術來建立信任,這是它的優勢之一。然而,另一個團隊通過使用與最初創造DeepFake相同的深度學習技術來識別DeepFake。
Van de Weghe說:“斯坦福大學的一些輟學者創造了Sherlock AI,一種自動的DeepFake檢測工具。他們取樣了一些卷積模型,然后在視頻中尋找異常。這一過程也被其他DeepFake檢測器所使用,比如Deeptrace Labs。他們使用一種名為FaceForensics++的數據集,然后對其進行測試。準確率高達97%,對人臉的識別效果也很好?!?/p>
Deeptrace實驗室基于API的監控系統可以查看DeepFake視頻的創建、上傳和共享。自2018年成立以來,該公司已經在互聯網上發現了超過1.4萬個虛假視頻。Deeptrace實驗室的系統收集到的信息可以告訴公司及其客戶,DeepFake的創造者在做什么,假視頻、假突破來自哪里,他們在使用什么算法,以及這些工具的可訪問性如何。Patrini說,他的團隊發現,95%的DeepFake都是假色情類的面部互換產品,其中大多數是名人。到目前為止,Deeptrace實驗室還沒有看到任何全身合成技術被應用在普通人身上。
Patrini說:“你不能用單一的算法或想法來總結這些問題的解決方案。這個問題是關于建立幾個工具,可以告訴你關于合成媒體的不同情況?!?/p>
Van de Weghe認為反DeepFake技術的下一個重大發明將會是軟生物特征識別技術。每個人都有自己獨特的面部表情——揚起的眉毛、嘴唇的動作、手部的動作——這些都可以作為某種個人特征。加州大學伯克利分校的研究人員Shruti Agarwal使用了軟生物計量模型來確定這種面部抽搐是否可以被人為地用于拍攝視頻。
Agarwal說:“基本的想法是,我們可以建立各種世界領導人的軟生物識別模型,比如2020年總統候選人,然后我們可以對網絡上流傳的視頻進行分析,確定它們是真是假?!?/p>
盡管Agarwal的模型并不能被完全證明,因為不同環境下的人可能會使用不同的面部抽搐,但Van de Weghe還是認為未來公司可以提供用于身份驗證的軟生物特征簽名。這種特征可能是眾所周知的眼睛掃描或全身掃描。
Van de Weghe說:“我認為這是前進的方向:與學術界和大型科技公司合作,創建更大的數據集。作為新聞編輯,我們應該努力培養人們對DeepFake的媒體素養。”
最近,Facebook和微軟聯手各個大學,推出了“DeepFake檢測挑戰”。另一項值得注意的努力是美國國防高級研究計劃局的行動,即利用語義取證技術來對付DeepFake。語義取證技術可以尋找算法錯誤,例如,在DeepFake視頻中,出現了一個人戴的耳環不匹配的情況。2018年9月,人工智能基金會籌集了1000萬美元,創建了一個工具,這款工具可以通過機器學習和人工審核者來識別DeepFake和其他惡意內容。
但是,Fast.AI的Thomas仍然懷疑技術是否能完全解決DeepFake的問題,不管是何種形式的技術。她認為建立更好的系統來識別DeepFake是有價值的,但她重申,其他類型的錯誤信息已經非常猖獗。Thomas說,利益相關者應該探索社會和心理因素,這些因素也會導致嚴重的DeepFake和其他錯誤信息,比如,Nancy Pelosi那部慢動作的視頻是如何利用不喜歡她的選民的偏見的。
Thomas、Van de Weghe和Farid都同意,政府將不得不介入并監管DeepFake技術,因為放大此類煽動性內容的社交媒體平臺要么無法,要么不愿監管自己的內容。
今年6月,眾議院情報委員會主席、民主黨眾議員Adam Schiff就DeepFake造成的虛假信息及其威脅舉行了首次聽證會。Schiff在開場白中指出,科技公司對Schiff的假視頻做出了不同的反應。YouTube立即刪除了這段慢速播放的視頻,而Facebook將其標注為假,并限制了它在整個平臺上的傳播速度。這些不同的反應導致Schiff要求社交媒體公司制定政策,糾正DeepFake的上傳和傳播。
Fast.ai的Thomas說:“在短期內,推廣虛假信息和其他有害的、煽動性的內容對社交平臺來說是有利可圖的,因此我們的激勵措施完全不一致。我不認為這些平臺應該對它們所承載的內容承擔責任,但我確實認為它們應該對積極推廣的內容承擔責任。例如,YouTube將Alex Jones的視頻推薦給那些甚至沒有在搜索他的人?!?/p>
Thomas補充道:“總的來說,我認為,考慮一下我們如何通過立法處理那些將巨額社會成本外部化、同時私下要求利潤的其它行業(如工業污染、大型煙草和快餐/垃圾食品),是有幫助的。”
Deeptrace Labs的Patrini說,對合成媒體的監管可能會變得復雜。但是,他認為,目前的一些法律,比如那些涉及誹謗和版權的法律,可以用來監管惡意的DeepFake。一項全面阻止DeepFake的法律將是錯誤的。相反,他主張政府支持有利于社會的合成媒體應用,同時資助研究開發檢測DeepFake的工具,并鼓勵初創企業和其他公司也這么做。
Patrini說:“政府還可以教育公民,這項技術已經存在,我們需要重新訓練我們的耳朵和眼睛,不要相信我們在互聯網上看到和聽到的一切。我們需要給人們和社會打預防針,而不是在可能兩年后因為濫用這項技術而發生非常災難性或有爭議的事情時修復民眾情緒?!?/p>
Ommer說,計算機視覺研究人員很清楚DeepFake的惡意應用。他認為政府應該為如何使用DeepFake建立問責制。
Ommer說:“我們都看到了圖像理解的應用,以及它可能帶來的好處。其中一個非常重要的部分是責任,誰將承擔這一責任?采訪過我的政府機構顯然看到了他們在這方面的責任。公司說,或許為了股東的利益,他們不得不說,他們看到了自己的責任;但是,到目前為止,我們都知道他們是如何處理這一責任的?!?/p>
Ommer說:“這是一件棘手的事情,我們不能只是靜靜地祈禱這一切都會過去。”
2022-04-08 獵云網發布了 《俞敏洪流露退隱之意?稱自以為是的努力,已成為新東方發展的障礙》的文章
2022-04-08 獵云網發布了 《闊別五年重返網約車!周航掌舵曹操出行》的文章
2022-04-08 獵云網發布了 《加速布局芯片!小米入股芯片公司尊湃通訊》的文章