歡迎光臨
每天分享高質量文章

從假臉到假新聞,你怎樣逃出“AI楚門的世界”?

導讀:曾幾何時,你是否會對這個世界產生懷疑:我到底生活在一個怎樣的世界?它到底是真實的,還是一個受人控制虛假的世界?有人可能會奇怪,為什麼會有這種想法,但是如果你看過《楚門的世界》,你大概就會理解了。

有人說,這隻是電影,但是很多人不知道的是,《楚門的世界》裡面的某些情節正逐漸發生在我們身邊,而這一切的主導,就是日漸流行的人工智慧AI……

 

 

來源:THU資料派(ID:datapi)

《楚門的世界》是派拉蒙影業公司於1998年出品的一部電影,講述了一檔熱門連續劇主人公楚門的故事。他從一齣生就被直播,安排生活在一個巨大的攝影棚小島上。他身邊的所有事情都是虛假的,他的親人和朋友全都是演員,但他本人對此一無所知。但最終楚門從蛛絲馬跡中覺察到了這一切,不惜一切代價走出了這個虛擬的世界。

01 你看到的視頻不是真視頻

不久前,B站UP主“換臉哥”用AI技術將楊冪的臉“貼”在了朱茵飾演的黃蓉臉上,登上了微博話題榜。這個事件還沒有過去多久,又有一個UP主將知名演員徐錦江老師的臉換成“海王”再度引發全面討論,甚至徐錦江老師本人也轉發視頻作出了回應:“我的臉?!”

 

現在,B站上UP主上傳關於AI換臉視頻儼然成為了一種風潮,大有愈加泛濫之勢。

AI換臉技術在國外名為Deepfakes,其實是一種逼真交換面孔的新視頻技術。通過電腦程式找到兩個面部之間的共同點,搭建神經網絡來學習人臉,可以使替換後的臉生動模仿原來的表情,達到以假亂真的效果。

 

早在2017年底,一位ID為Deepfakes的用戶將《神奇女俠》主演蓋爾·加朵的臉“貼”在色情片主演臉上,上傳到網絡,引發熱議。

Deepfakes的技術原理其實並不難,需要掌握以下幾步:

  1. 獲取deepfakes工具包git clone

    https://github.com/deepfakes/faceswap.git

  2. 補齊依賴包:pip install tqdmpip install cv2等

  3. 收集照片樣本以及面部抓取

  4. 運用臉部特征提取演算法HOG(Histogram of Oriented Gradient)提取面部特征,開始進行訓練

  5. 轉換人臉。通常運用到AutoEncoder(一種捲積神經網絡),它會根據輸入圖片,重構這個圖片(也就是根據這個圖片再生成這個圖片)

只需要熟練的掌握了這幾步,理論上通過AI你就可以製造出任何你想看到的人物主演的電影,包括你的鄰居和你的同學。雖然某些組織已經對該技術發出了警告和並作出了限制,但是“換臉術”顯然會繼續存在,而且只會越來越精湛。

02 你看到的照片不是真照片

今年二月份,一個名為此人不存在”(ThisPersonDoesNotExist.com)的網站被國內媒體集中報道。過去網絡上流行一句話,叫“無圖無真相”,但這個網站的出現讓“有圖有真相”也變成了過去式。

 

這個網站的開發者Philip Wang利用AI演算法,通過採用真人照片來訓練,生成人工合成的類似照片,生成的全新照片足以達到以假亂真的水準。

▲這些人現實都不存在,全部生成自 ThisPersonDoesNotExist.com 網站

支持該網站的基本AI框架是著名的生成對抗網絡GAN,最初由谷歌大腦科學家Ian Goodfellow等人在 2014 年發明。

 

英偉達據此在2018發佈了StyleGAN 開源演算法,該演算法採用生成對抗網絡(GAN)方法,利用兩個神經網絡互相訓練,一個試圖生成與真實照片無法區分的合成圖像,另一個試圖分辨出差異,這樣訓練幾個星期後,圖像創建網絡可以生成從來不曾在世界上出現過但卻無比真實的人臉。

StyleGAN官方開源地址:

https://github.com/NVlabs/stylegan

通過下載一個包含Github庫基礎的預訓練StyleGAN生成器 pretrained_example.py,甚至普通人都可以使用相關Python代碼直接用來生成圖像。

生成1024*1024解析度的圖像,如果使用英偉達Tesla V100 GPU做訓練,硬體配置和訓練時間如下:

雖然這個生成器由AI生成的照片目前有一些還不太完美,但是另外一些被生成出來的細節豐富、表情逼真的人臉,已經足夠騙過大多數人的眼睛,這不由地讓人產生後怕的感覺——你以為足夠真實的照片,它卻是AI創造的。

03 你看到的新聞不是真新聞

雖然假新聞大家已經見怪不怪了,但是很多假新聞是出於各種利益和選擇,人為製造的,然而AI製造的假新聞你看過嗎?據彭博社報道,埃隆·馬斯克創辦的OpenAI近期發佈了自然語言處理(NLP)模型——GPT-2,僅需寥寥數個單詞,演算法就能據此生成出一條幾乎可以以假亂真的新聞來。

報道稱,最初演算法設計僅是作為一種通用語言的人工智慧程式,可以回答問題,概括故事梗概翻譯文本等,但是研究人員很快意識到它的能力能夠輸出虛假信息。目前,OpenAI並沒有公佈GPT-2模型及代碼,只是象徵性的公佈了一個僅含117M引數的樣本模型及代碼,相當於他們宣稱使用的資料量的0.29%。

樣本模型及代碼查看:

https://github.com/openai/gpt-2

軟體編寫新聞的過程很簡單,研究人員只需給軟體提供一些簡單的初始信息,例如:“一節裝載受控核材料的火車車廂今天在Cincinnati被盜,下落不明。”以此作為基礎,軟體可以編寫出由7個段落組成的新聞,軟體還會模仿正式新聞那樣引述政府官員的話語,只是這些信息全是假的。

實際到目前,人工生成虛假新聞對人們的日常生活的影響已經足夠嚴重,而如果此類內容能被AI自動生成,那麼結果將更加無法想象。另外需要強調的是,這種演算法還能夠針對特定人群的統計特征甚至個人偏好進行具體優化。

 

OpenAI政策主管Jack Clark表示,“在不久的將來,人工智慧也許會以可靠的方式及效率大規模發佈虛假故事、偽造推文或者其它極具說服力的誤導性評論。

看完這些,你有沒有一種熟悉的感覺?是的,正如《楚門的世界》劇情那樣,我們正在被AI技術逐漸包裹在一個虛假的世界里,加上如今日漸成熟的AI推薦演算法,未來人工智慧甚至可以針對每一個人的喜好,製作出以假亂真的資訊:在一起突發新聞的直播里,你看到的視頻、人物圖片以及文字很有可能都是假的。

 

那我們有沒有辦法逃出“AI楚門的世界”呢?答案是肯定的,那就是利用AI對抗AI。

04 利用CNN網絡作為分類器監測視頻真假

我們怎麼樣監測視頻是否由AI生成的呢?博士生李躍尊(音譯)和紐約州立大學奧爾巴尼分校的助理教授劉思偉(音譯)提出了一種新技術方法,可以識別深度學習演算法生成的假視頻。

 

李和劉在之前發表的一篇論文(鏈接:https://arxiv.org/abs/1811.00656) 中提到道:“我們觀察到,現有的DeepFake演算法只能生成出解析度有限的圖像,這些低解析度圖像要經過扭曲才能擴展到和來源視頻一樣的解析度。我們的方法就是基於這個觀察。”

具體做法上,最開始他們使用傳統視覺演算法來檢測 24,442 張訓練圖像,提取其臉部關鍵點。然後,他們通過彎折或扭曲圖像中的人臉特征,來模擬 DeepFake 生成的假圖片、視頻中可能會出現的怪異效果。

 

最後,他們用真實的和扭曲的圖像訓練了一些捲積神經網絡(CNN)作為分類器,該分類器可以給出一個視頻為真還是為假的概率。訓練完成後,他們向這些捲積神經網絡中輸入視頻的截圖,就可以檢測這些截圖中的人臉到底是真的還是偽造的。

當然也有一些其它的學者貢獻了他們方法,包括英國的牛津大學的研究者開發的老牌捲積神經網絡VGG16,在假視頻識別任務中精度為83.3%,微軟的研究者們開發的捲積神經網絡ResNet50識別精度則高達97.4%。

05 AI刑偵檢測工具識別假圖片

在識別假圖片上,美國國防部研究機構DAPRA研發出了首款“反變臉”的AI刑偵檢測工具,其原理就是以AI攻AI。這款AI反變臉刑偵工具是DARPA Media Forensics計劃的一部分。

 

DARPA資助的Media Forensics計劃,旨在成功辨別由機器學習演算法生成的虛假圖片和視頻。該計劃研究人員正在嘗試開發出一種可擴展的平臺化工具,對尤其是基於GAN模型的“Deepfake”生成的假視頻和圖像進行識別。

紐約州立大學奧爾巴尼分校教授Siwei Lyu和他的學生 Yuezun Li 與 Ming-Ching Chang共同發現,使用AI技術生成的假臉,極少甚至不會眨眼,因為它們都是使用睜眼的照片進行訓練的,於是DARPA 基於此開發出了一款工具。

 

他們在論文詳細介紹瞭如何組合兩個神經網絡,從而更有效地揭露哪些照片是AI合成的,“這些視頻往往忽略了自發的、無意識的生理活動,例如呼吸、脈搏和眼球運動”。

檢測數字化內容的真假通常涉及三個步驟:

 

  • 首先是檢查數字檔案中是否有兩個圖像或視頻拼接在一起的跡象;

  • 第二是檢查圖像的光照度等物理屬性,查找可能存在問題的跡象;

  • 第三步最難自動完成的,也可能是最棘手的,就是檢查圖像或視頻內容在邏輯上是否存在矛盾,比如圖像顯示拍攝日期的天氣與實際天氣不符,或者拍攝位置的背景有問題等。

06 AI審核系統幫助標記假新聞

在去年,麻省理工學院計算機科學與人工智慧實驗室(CSAIL)和卡塔爾計算研究所的研究人員推出了一套鑒別假新聞的全新AI解決方案。這套方案的新穎之處在於,對其評估的媒介的廣泛語境理解,來自於具有確定可信度的維基百科、社交媒體,甚至URL和網絡流量資料的結構,而不是單獨從新聞文章中提取特征值(機器學習模型所訓練的變數)。

據該團隊透露,系統只需要150篇文章來確定是否可以可靠地信任某一來源。它在檢測新聞來源是否具有高、低或中等水平的“事實性”時準確率可達到65%,並且在檢測新聞來源是左傾、右傾還是中等時準確率為70%。

▲顯示研究人員資料庫中新聞來源的實際情況VS偏見的圖表

在改系統中,受過培訓分析文本,視頻,圖像和音頻的AI系統可以晝夜不停地工作,速度遠遠超過人工的效率。最具諷刺意味的是,網絡上製作的假新聞越多,AI審核系統就會變得越好。這是由於機器學習平臺基於資料輸入自我完善,所以過剩的虛假文章和視頻可以不斷的訓練和提高它們的檢測假新聞能力。

隨著人工智慧技術的普及,它的使用範圍會變得更加廣泛,使用門檻也會隨之降低。當前流行的AI“造假”,從另外一個角度印證了人工智慧技術在逐漸成為一項普惠技術,之前人工造假的手段將逐漸被AI代替。而且從目前的情況來看,這種趨勢無法阻擋,唯有相關法律法規的完善才能有效制止。

 

無論是AI“造假”還是AI識別假象,我們未來終究會生活在一個AI無處不在的世界,但只要我們合理應用AI技術,同樣可以突破其所帶來的負面影響,助力我們社會的進步和發展。

    已同步到看一看
    赞(0)

    分享創造快樂