AI換臉技讓朱茵版黃蓉變楊冪 以假亂真如何辨別?
2019年03月18日09:34

  原標題:“AI換臉”技術以假亂真?給生活會帶來哪些利與弊

  通訊員 閆 欣 本報記者 華 淩

  近日,知名視頻網站blibli流傳出一段視頻:電影《射鵰英雄傳》(1994年版)朱茵主演的黃蓉被視頻製作者通過“AI換臉術”處理成了楊冪的臉,神態表情如同朱茵飾演的黃蓉一樣生動俏皮,毫無違和感,頓時引起網民熱議,以至於微博話題點擊量飆升至1.1億。

  所謂AI換臉術,是基於人工智能的人體圖像合成技術,生成的假臉(通稱DeepFake)。那麼,這個技術是怎麼做到如此出神入化?它給人們的生活會帶來哪些利與弊?有何辦法對其辨別?避免潛在風險?

  強調“以假亂真”

  讓黃蓉秒變臉的視頻製作者表示,這麼做僅是用於“技術交流”。其實,AI換臉技術已然在我們身邊蕩起漣漪。

  今年春節期間,科幻影片《瘋狂的外星人》中外星人逼真的神態表情,是由演員徐崢通過“動作捕捉”出演完成;美國動作電影《阿麗塔》用AI科技加持,為觀眾呈現閃亮大眼的戰鬥蘿莉阿麗塔動感十足;經典影片《速度與激情7》中,AI換臉還原了因車禍意外去世的主演保羅·沃克的音容笑貌,讓整部影片多了一絲“你永遠與我們同在”的溫暖。

  不同於戲曲換臉的變幻,“AI換臉術”強調“以假亂真”。簡單說,AI換臉就是將目標人物各個角度的人臉照片一幀幀貼在被換對象的視頻畫面上,生成假臉視頻,倘若能達到“朱茵or楊冪?傻傻分不清!”的效果,即大功告成。

  “從技術層面講,首先要進行數據採集,捕捉不同的臉姿態、表情、角度和光照的人臉圖片;再者進行數據處理,包括採集數據標準化及分割算法處理等;硬件上需要一個較好的GPU,家用計算機可能會吃力一些,製作需要幾個小時甚至數十小時,但是現在已有許多插件可以輔助。”為2019年央視網絡春晚提供虛擬主持人技術支持的偶邦公司創始人鄭毅告訴科技日報記者。

  有“壞孩子”之嫌

  “AI換臉術”從其命名為DeepFake起,恐怕已有“壞孩子”之嫌。

  據說,DeepFake原本是一個用戶的名字,他將《神奇女俠》主角蓋爾·加朵的臉嫁接到另一張臉上,後被這位女演員及其律師起訴,但無奈尚沒有相關法律條文對其問責,由此DeepFake反而因為“創新之舉”一炮走紅,成為“AI換臉術”代言人。

  在某些重大政治場合,以假亂真的假新聞對於民眾的誤導,帶來的負面影響是不可估量的。2018年5月,美國總統特朗普宣佈中止全球氣候變化協議,隨後被比利時某政黨利用DeepFake篡改,做了一個“特朗普宣告比利時政府也應退出”的假視頻,引起比利時民眾的公憤。可以想像,如果類似的假視頻被用在投票、騷亂、戰亂誤導民眾,煽風點火,後果可能是災難性的。

  此外,DeepFake也有道德隱患。現在很多明星已躺槍,包括艾瑪·沃特森、斯嘉麗·約翰遜、瑞漢娜等荷李活影星、歌星,被換臉後的視頻上傳到成人視頻網站,以假亂真的換臉技術,要面臨社會很大的道德爭議。

  有外媒稱:“這種技術再次提醒我們,在這個數字時代,任何事情都不能盲目地看表面,因為那張臉可能是在欺騙你。”

  用AI假里辨真

  如何辨別“AI換臉術”?值得慶幸的是,科學界正在應對這個問題,而主要“殺手鐧”是運用AI技術假里辨真。

  紐約州立大學奧爾巴尼分校教授呂斯衛領導的團隊發現了偽造視頻的漏洞:假臉極少甚至不會眨眼,因為它們都是使用睜眼的照片進行訓練的。

  研究人員表示,偽造視頻往往忽略了“自發的、無意識的生理活動,例如呼吸、脈搏和眼球運動”。呂斯衛說:“因此,缺少眨眼是判斷一個視頻真假的好方法之一。”

  這種作為“反AI變臉”技術通過有效預測眼睛的狀態,準確率達99%。此項研究已由美國國防高級研究計劃局資助,作為甄別媒體假新聞,推進媒體取證計劃的一部分。

  “在偽造視頻的後期處理中手動添加眨眼,其實並非一個巨大挑戰,而且一些偽造視頻已包含眨眼。從長遠來看,實際上這是一場通過AI製作假視頻和檢測假視頻之間的持續戰鬥。”呂斯衛說。

  此外,鄭毅提出,“通過強製記錄照片和視頻拍攝的時間、地點,既在區塊鏈上記錄照片和視頻不可篡改的時空戳方法,也可進行鑒別”。

  然而,公共科學研究猶如一把雙刃劍:騙子一旦瞭解其騙局是如何被識破的,就可以對算法進行相應調整。道高一尺魔高一丈,“從這個意義上講,他們已經占上風,最終很難說哪一方會獲勝。”呂斯衛指出。

  來源:科技日報

關注我們Facebook專頁
    相關新聞
      更多瀏覽