歡迎光臨
每天分享高質量文章

從假臉到假新聞,你怎樣逃出“AI楚門的世界”?

導讀:曾幾何時,你是否會對這個世界產生懷疑:我到底生活在一個怎樣的世界?它到底是真實的,還是一個受人控制虛假的世界?有人可能會奇怪,為什麼會有這種想法,但是如果你看過《楚門的世界》,你大概就會理解了。

有人說,這隻是電影,但是很多人不知道的是,《楚門的世界》裡面的某些情節正逐漸發生在我們身邊,而這一切的主導,就是日漸流行的人工智慧AI……

 

 

來源:THU資料派(ID:datapi)

《楚門的世界》是派拉蒙影業公司於1998年出品的一部電影,講述了一檔熱門連續劇主人公楚門的故事。他從一齣生就被直播,安排生活在一個巨大的攝影棚小島上。他身邊的所有事情都是虛假的,他的親人和朋友全都是演員,但他本人對此一無所知。但最終楚門從蛛絲馬跡中覺察到了這一切,不惜一切代價走出了這個虛擬的世界。

01 你看到的影片不是真影片

不久前,B站UP主“換臉哥”用AI技術將楊冪的臉“貼”在了朱茵飾演的黃蓉臉上,登上了微博話題榜。這個事件還沒有過去多久,又有一個UP主將知名演員徐錦江老師的臉換成“海王”再度引發全面討論,甚至徐錦江老師本人也轉發影片作出了回應:“我的臉?!”

 

現在,B站上UP主上傳關於AI換臉影片儼然成為了一種風潮,大有愈加泛濫之勢。

AI換臉技術在國外名為Deepfakes,其實是一種逼真交換面孔的新影片技術。透過電腦程式找到兩個面部之間的共同點,搭建神經網路來學習人臉,可以使替換後的臉生動模仿原來的表情,達到以假亂真的效果。

 

早在2017年底,一位ID為Deepfakes的使用者將《神奇女俠》主演蓋爾·加朵的臉“貼”在色情片主演臉上,上傳到網路,引發熱議。

Deepfakes的技術原理其實並不難,需要掌握以下幾步:

  1. 獲取deepfakes工具包git clone

    https://github.com/deepfakes/faceswap.git

  2. 補齊依賴包:pip install tqdmpip install cv2等

  3. 收集照片樣本以及面部抓取

  4. 運用臉部特徵提取演演算法HOG(Histogram of Oriented Gradient)提取面部特徵,開始進行訓練

  5. 轉換人臉。通常運用到AutoEncoder(一種摺積神經網路),它會根據輸入圖片,重構這個圖片(也就是根據這個圖片再生成這個圖片)

只需要熟練的掌握了這幾步,理論上透過AI你就可以製造出任何你想看到的人物主演的電影,包括你的鄰居和你的同學。雖然某些組織已經對該技術發出了警告和並作出了限制,但是“換臉術”顯然會繼續存在,而且只會越來越精湛。

02 你看到的照片不是真照片

今年二月份,一個名為此人不存在”(ThisPersonDoesNotExist.com)的網站被國內媒體集中報道。過去網路上流行一句話,叫“無圖無真相”,但這個網站的出現讓“有圖有真相”也變成了過去式。

 

這個網站的開發者Philip Wang利用AI演演算法,透過採用真人照片來訓練,生成人工合成的類似照片,生成的全新照片足以達到以假亂真的水準。

▲這些人現實都不存在,全部生成自 ThisPersonDoesNotExist.com 網站

支援該網站的基本AI框架是著名的生成對抗網路GAN,最初由谷歌大腦科學家Ian Goodfellow等人在 2014 年發明。

 

英偉達據此在2018釋出了StyleGAN 開源演演算法,該演演算法採用生成對抗網路(GAN)方法,利用兩個神經網路互相訓練,一個試圖生成與真實照片無法區分的合成影象,另一個試圖分辨出差異,這樣訓練幾個星期後,影象建立網路可以生成從來不曾在世界上出現過但卻無比真實的人臉。

StyleGAN官方開源地址:

https://github.com/NVlabs/stylegan

透過下載一個包含Github庫基礎的預訓練StyleGAN生成器 pretrained_example.py,甚至普通人都可以使用相關Python程式碼直接用來生成影象。

生成1024*1024解析度的影象,如果使用英偉達Tesla V100 GPU做訓練,硬體配置和訓練時間如下:

雖然這個生成器由AI生成的照片目前有一些還不太完美,但是另外一些被生成出來的細節豐富、表情逼真的人臉,已經足夠騙過大多數人的眼睛,這不由地讓人產生後怕的感覺——你以為足夠真實的照片,它卻是AI創造的。

03 你看到的新聞不是真新聞

雖然假新聞大家已經見怪不怪了,但是很多假新聞是出於各種利益和選擇,人為製造的,然而AI製造的假新聞你看過嗎?據彭博社報道,埃隆·馬斯克創辦的OpenAI近期釋出了自然語言處理(NLP)模型——GPT-2,僅需寥寥數個單詞,演演算法就能據此生成出一條幾乎可以以假亂真的新聞來。

報道稱,最初演演算法設計僅是作為一種通用語言的人工智慧程式,可以回答問題,概括故事梗概翻譯文字等,但是研究人員很快意識到它的能力能夠輸出虛假資訊。目前,OpenAI並沒有公佈GPT-2模型及程式碼,只是象徵性的公佈了一個僅含117M引數的樣本模型及程式碼,相當於他們宣稱使用的資料量的0.29%。

樣本模型及程式碼檢視:

https://github.com/openai/gpt-2

軟體編寫新聞的過程很簡單,研究人員只需給軟體提供一些簡單的初始資訊,例如:“一節裝載受控核材料的火車車廂今天在Cincinnati被盜,下落不明。”以此作為基礎,軟體可以編寫出由7個段落組成的新聞,軟體還會模仿正式新聞那樣引述政府官員的話語,只是這些資訊全是假的。

實際到目前,人工生成虛假新聞對人們的日常生活的影響已經足夠嚴重,而如果此類內容能被AI自動生成,那麼結果將更加無法想象。另外需要強調的是,這種演演算法還能夠針對特定人群的統計特徵甚至個人偏好進行具體最佳化。

 

OpenAI政策主管Jack Clark表示,“在不久的將來,人工智慧也許會以可靠的方式及效率大規模釋出虛假故事、偽造推文或者其它極具說服力的誤導性評論。

看完這些,你有沒有一種熟悉的感覺?是的,正如《楚門的世界》劇情那樣,我們正在被AI技術逐漸包裹在一個虛假的世界裡,加上如今日漸成熟的AI推薦演演算法,未來人工智慧甚至可以針對每一個人的喜好,製作出以假亂真的資訊:在一起突發新聞的直播裡,你看到的影片、人物圖片以及文字很有可能都是假的。

 

那我們有沒有辦法逃出“AI楚門的世界”呢?答案是肯定的,那就是利用AI對抗AI。

04 利用CNN網路作為分類器監測影片真假

我們怎麼樣監測影片是否由AI生成的呢?博士生李躍尊(音譯)和紐約州立大學奧爾巴尼分校的助理教授劉思偉(音譯)提出了一種新技術方法,可以識別深度學習演演算法生成的假影片。

 

李和劉在之前發表的一篇論文(連結:https://arxiv.org/abs/1811.00656) 中提到道:“我們觀察到,現有的DeepFake演演算法只能生成出解析度有限的影象,這些低解析度影象要經過扭曲才能擴充套件到和來源影片一樣的解析度。我們的方法就是基於這個觀察。”

具體做法上,最開始他們使用傳統視覺演演算法來檢測 24,442 張訓練影象,提取其臉部關鍵點。然後,他們透過彎折或扭曲影象中的人臉特徵,來模擬 DeepFake 生成的假圖片、影片中可能會出現的怪異效果。

 

最後,他們用真實的和扭曲的影象訓練了一些摺積神經網路(CNN)作為分類器,該分類器可以給出一個影片為真還是為假的機率。訓練完成後,他們向這些摺積神經網路中輸入影片的截圖,就可以檢測這些截圖中的人臉到底是真的還是偽造的。

當然也有一些其它的學者貢獻了他們方法,包括英國的牛津大學的研究者開發的老牌摺積神經網路VGG16,在假影片識別任務中精度為83.3%,微軟的研究者們開發的摺積神經網路ResNet50識別精度則高達97.4%。

05 AI刑偵檢測工具識別假圖片

在識別假圖片上,美國國防部研究機構DAPRA研發出了首款“反變臉”的AI刑偵檢測工具,其原理就是以AI攻AI。這款AI反變臉刑偵工具是DARPA Media Forensics計劃的一部分。

 

DARPA資助的Media Forensics計劃,旨在成功辨別由機器學習演演算法生成的虛假圖片和影片。該計劃研究人員正在嘗試開發出一種可擴充套件的平臺化工具,對尤其是基於GAN模型的“Deepfake”生成的假影片和影象進行識別。

紐約州立大學奧爾巴尼分校教授Siwei Lyu和他的學生 Yuezun Li 與 Ming-Ching Chang共同發現,使用AI技術生成的假臉,極少甚至不會眨眼,因為它們都是使用睜眼的照片進行訓練的,於是DARPA 基於此開發出了一款工具。

 

他們在論文詳細介紹瞭如何組合兩個神經網路,從而更有效地揭露哪些照片是AI合成的,“這些影片往往忽略了自發的、無意識的生理活動,例如呼吸、脈搏和眼球運動”。

檢測數字化內容的真假通常涉及三個步驟:

 

  • 首先是檢查數字檔案中是否有兩個影象或影片拼接在一起的跡象;

  • 第二是檢查影象的光照度等物理屬性,查詢可能存在問題的跡象;

  • 第三步最難自動完成的,也可能是最棘手的,就是檢查影象或影片內容在邏輯上是否存在矛盾,比如影象顯示拍攝日期的天氣與實際天氣不符,或者拍攝位置的背景有問題等。

06 AI審核系統幫助標記假新聞

在去年,麻省理工學院電腦科學與人工智慧實驗室(CSAIL)和卡達計算研究所的研究人員推出了一套鑒別假新聞的全新AI解決方案。這套方案的新穎之處在於,對其評估的媒介的廣泛語境理解,來自於具有確定可信度的維基百科、社交媒體,甚至URL和網路流量資料的結構,而不是單獨從新聞文章中提取特徵值(機器學習模型所訓練的變數)。

據該團隊透露,系統只需要150篇文章來確定是否可以可靠地信任某一來源。它在檢測新聞來源是否具有高、低或中等水平的“事實性”時準確率可達到65%,並且在檢測新聞來源是左傾、右傾還是中等時準確率為70%。

▲顯示研究人員資料庫中新聞來源的實際情況VS偏見的圖表

在改系統中,受過培訓分析文字,影片,影象和音訊的AI系統可以晝夜不停地工作,速度遠遠超過人工的效率。最具諷刺意味的是,網路上製作的假新聞越多,AI審核系統就會變得越好。這是由於機器學習平臺基於資料輸入自我完善,所以過剩的虛假文章和影片可以不斷的訓練和提高它們的檢測假新聞能力。

隨著人工智慧技術的普及,它的使用範圍會變得更加廣泛,使用門檻也會隨之降低。當前流行的AI“造假”,從另外一個角度印證了人工智慧技術在逐漸成為一項普惠技術,之前人工造假的手段將逐漸被AI代替。而且從目前的情況來看,這種趨勢無法阻擋,唯有相關法律法規的完善才能有效制止。

 

無論是AI“造假”還是AI識別假象,我們未來終究會生活在一個AI無處不在的世界,但只要我們合理應用AI技術,同樣可以突破其所帶來的負面影響,助力我們社會的進步和發展。

    已同步到看一看
    贊(0)

    分享創造快樂