您的位置: 首頁(yè) > 新聞 > 時(shí)事焦點(diǎn) > 新聞詳情

AI換臉視頻讓人真假難辨 要想識(shí)破最終還要靠AI

時(shí)間:2018-07-14 11:33:25
  • 來(lái)源:網(wǎng)易科技
  • 作者:NT
  • 編輯:newtype2001

AI換臉視頻讓人真假難辨 要想識(shí)破最終還要靠AI

之前我們報(bào)道過人工智能換臉技術(shù)Deepfake,正當(dāng)很多人擔(dān)憂自己的樣貌會(huì)不會(huì)被AI換到一些不可描述的片子上的時(shí)候,研究人員通過人工智能對(duì)虛假視頻中的人像眨眼進(jìn)行分析,最終有效地將假視頻檢測(cè)了出來(lái)。

隨著人工智能的飛速發(fā)展,不少人利用所謂的Deepfake黑科技制作出虛假視頻,這種視頻換臉技術(shù)引起了業(yè)內(nèi)的強(qiáng)烈擔(dān)憂。

正如他們所稱的那樣,Deepfake是數(shù)字虛假信息不斷演變的最新的——也許是最令人不安的——表現(xiàn)。修改圖像早已有之,而篡改音頻的方法也在不斷改進(jìn)。直至最近,修改視頻一直很費(fèi)勁,需要大量的專業(yè)技能和耐心。然而,機(jī)器學(xué)習(xí)技術(shù)的發(fā)展卻導(dǎo)致該過程不斷加速。

AI換臉視頻讓人真假難辨 要想識(shí)破最終還要靠AI

去年年底,Reddit平臺(tái)上出現(xiàn)了一種新的色情視頻,是由一個(gè)名叫deepfake的用戶上傳的。通過機(jī)器學(xué)習(xí)技術(shù),deepfake已經(jīng)找到了如何將色情明星面孔換成名人面孔的方法,相關(guān)視頻引起了轟動(dòng)。 DeepFake算法隨后在GitHub上發(fā)布,給任何擁有足夠?qū)I(yè)知識(shí)和足夠配置計(jì)算機(jī)的人提供了制作虛假視頻的方法。

從那時(shí)起,類似的偽造視頻和相關(guān)軟件在互聯(lián)網(wǎng)上如雨后春筍般出現(xiàn)。雖然有些是相對(duì)無(wú)害的,但這種變臉工具顯然存在負(fù)面影響。很容易想象,一部制作精良的視頻可能會(huì)加劇緊張局勢(shì),引發(fā)騷亂或加劇犯罪。人與人之間的相互信任可能會(huì)被侵蝕,人們普遍擔(dān)憂技術(shù)的發(fā)展速度已經(jīng)超出了政策的發(fā)展。

值得慶幸的是,科學(xué)界正在應(yīng)對(duì)這個(gè)問題。由紐約奧爾巴尼大學(xué)的Siwei Lyu領(lǐng)導(dǎo)的一個(gè)團(tuán)隊(duì)發(fā)現(xiàn)了這些偽造視頻的漏洞。 DeepFake算法根據(jù)饋送的圖像創(chuàng)建視頻。雖然比較準(zhǔn)確,但人工智能始終無(wú)法完美再現(xiàn)人類自然產(chǎn)生的所有生理信號(hào)。 Lyu和他的團(tuán)隊(duì)特別關(guān)注一點(diǎn):眨眼。人類通常每?jī)傻饺刖蜁?huì)眨一次眼。但由于人像照片通常不會(huì)閉眼,因此通過照片對(duì)這些算法進(jìn)行訓(xùn)練意味著生成的視頻中人像很少會(huì)眨眼。

因此,Lyu和他的團(tuán)隊(duì)設(shè)計(jì)了一種人工智能算法來(lái)檢測(cè)偽造視頻中哪里不存在眨眼現(xiàn)象。他們的算法——兩個(gè)神經(jīng)網(wǎng)絡(luò)的組合——首先檢測(cè)出視頻中的人像面部,然后對(duì)視頻中的所有連續(xù)人像進(jìn)行對(duì)齊,分析每一個(gè)人像中的眼睛區(qū)域。神經(jīng)網(wǎng)絡(luò)的一部分決定人像是否閉眼。另一個(gè)用作記憶系統(tǒng),記住幀到幀的變化,以確定是否隨著時(shí)間的推移發(fā)生了眨眼。

首先,他們?cè)诰哂斜犙酆烷]眼人像的標(biāo)記數(shù)據(jù)集上訓(xùn)練人工智能。隨后,為了對(duì)訓(xùn)練結(jié)果進(jìn)行測(cè)試,他們自行生成了DeepFake視頻集,甚至還做了一些后期處理,讓偽造視頻顯得更自然。

結(jié)果令人印象深刻。根據(jù)Lyu的說(shuō)法,他們的人工智能識(shí)別出了所有的偽造視頻。

Lyu解釋說(shuō),在偽造視頻的后期處理中手動(dòng)添加眨眼并不是一個(gè)巨大的挑戰(zhàn),而且一些偽造的視頻——包括BuzzFeed上的偽造視頻——確實(shí)包含眨眼。然而他們開發(fā)的這種算法,至少有助于阻止和延遲創(chuàng)建偽造視頻的過程。 “我們正在形成第一道防線,” Lyu說(shuō), “從長(zhǎng)遠(yuǎn)來(lái)看,這實(shí)際上是制作假視頻和檢測(cè)假視頻之間的持續(xù)戰(zhàn)斗。”

這項(xiàng)研究符合更廣泛的努力。作為其媒體取證計(jì)劃的一部分,該研究由國(guó)防高級(jí)研究規(guī)劃局(DARPA)贊助,從2016年開始運(yùn)行至2020年。他們的目標(biāo)是開發(fā)一套工具來(lái)檢查音頻和視頻等數(shù)字化信息的真實(shí)性和準(zhǔn)確性。

“我們希望向公眾保證,有技術(shù)可以打擊這種虛假媒體和虛假新聞,” Lyu說(shuō)。

紐約大學(xué)(University of New York)計(jì)算機(jī)科學(xué)教授馬諾維奇(Lev Manovitch)認(rèn)為,這也是人工智能之間競(jìng)爭(zhēng)日趨激烈的一個(gè)例子。 “我們很清楚,計(jì)算數(shù)據(jù)分析通??梢詸z測(cè)到人類發(fā)現(xiàn)不了的模式,”他解釋說(shuō),“但是如何檢測(cè)另一個(gè)人工智能生成的模式呢?我們將來(lái)會(huì)看到人工智能之間的 “戰(zhàn)爭(zhēng)”,就發(fā)生在我們永遠(yuǎn)不會(huì)注意到的細(xì)節(jié)層面嗎?

目前,Lyu的團(tuán)隊(duì)正在研究如何進(jìn)一步開發(fā)技術(shù),以解決諸如眨眼頻率和持續(xù)時(shí)間等復(fù)雜問題。未來(lái)的目標(biāo)是能夠檢測(cè)到包括呼吸在內(nèi)的各種自然生理信號(hào)。 “我們正在非常努力地解決這個(gè)問題,” Lyu說(shuō)。

當(dāng)然,公共科學(xué)研究的雙刃劍是,騙子一旦讀過并理解了他們的騙局是如何被發(fā)現(xiàn)的,就可以對(duì)算法進(jìn)行相應(yīng)的調(diào)整。 “從這個(gè)意義上講,他們已經(jīng)占了上風(fēng),” Lyu說(shuō), “很難說(shuō)哪一方最終會(huì)獲勝。”

0

玩家點(diǎn)評(píng) 0人參與,0條評(píng)論)

收藏
違法和不良信息舉報(bào)
分享:

熱門評(píng)論

全部評(píng)論

他們都在說(shuō) 再看看
3DM自運(yùn)營(yíng)游戲推薦 更多+