歡迎光臨
每天分享高質量文章

能從長相上看出性取向?這樣的AI你怕不怕?

導讀:八卦,似乎一直是人類茶餘飯後一個永恆的話題,怎麼辨別一個人與另一個人的關係?比如,是好朋友還是好基友?

然而,你興許尚不知的是,這一私密的問題,AI已經能夠做到精確識別了,這也著實引起了一撥恐慌。

作者:柯鳴

來源:智慧相對論(ID:aixdlun)

01 同性戀傾向於具有“非典型性別特徵”

就在此前,斯坦福大學兩名研究人員開發了一個神經網路,可以透過研究一個面部影象來檢測一個人的性取向。

研究人員訓練了超過35,000張面部影象的神經網路,在同性戀和異性戀之間平均分配。該演演算法的追蹤涉及了遺傳或激素相關的特徵。

這項研究的關鍵在於影響性取向的產前激素理論(PHT)。這個理論具體講的是,在子宮中,對性分化負責的主要是雄性激素,也是以後生活中同性戀取向的主要驅動力。研究還指出,這些特定的雄性激素會在一定程度上影響面部的關鍵特徵,這意味著某些面部特徵可能與性取向有關。

研究發現,男女同性戀傾向於具有“非典型性別特徵”,也就是說男同性戀通常趨向於女性化,而女同性戀反之亦然。此外,研究人員發現男同性戀通常擁有比直男更窄的下巴、更長的鼻子以及更大的前額,而女同性戀會擁有更大的下巴和更小的前額。

▲圖片來源:TechCrunch

隨機選擇一對影象,一名同性戀男子和一名異性戀男子,機器挑選受試者的性取向準確率高達80%。而當與同一人的五張影象同時呈現對比時,精確度高達91%。不過,對於女性而言,預測準確率相對較低,一幅影象準確率為71%,有5幅影象,則上升至83%。


這一切都讓人們感到了恐懼,AI識別人類性取向,無疑是涉及到了隱私部分,這確實是讓人有所畏懼。而儲存在社交網路和政府資料庫中的數十億公共資料將有可能在未獲得本人許可的情況下被用來進行性取向識別,這也是有待商榷的。

02 除了識別性取向,還可以辨別人物關係

但是,這型別的研究還在繼續。中山大學的一個團隊可以透過資料集來識別人物關係。比如是這樣:

又或者是這樣:

而這一切,基於研究者們訓練了的圖推理模型(Graph Reasoning Model,GRM),由該模型結合門控圖神經網路(Gated Graph Neural Network,GGNN)對社會關係進行處理。

基於此,AI能夠識別圖片中三者之間的關係,根據圖上人物區域的特徵來初始化關係節點,然後用預先訓練的Faster-RCNN探測器搜尋影象中的語意物件,並提取其特徵,初始化相應的物件節點;透過圖傳播節點訊息以充分探索人與背景關係物件的互動,並採用圖註意機制自適應地選擇資訊量最大的節點,以透過測量每個物件節點的重要性來促進識別。

但是,在實際表現中,AI識別並未盡如人意。如警方在歐冠決賽採用AI面部識別匹配潛在犯罪影象,其錯誤率高達92%,而在人物關係和性取向識別領域,其應用表現也並不優秀。

03 性取向被識別後,AI倫理的邊界又在哪裡?

《紐約客》曾有這樣一期封面:機器人已經成為了地球的主角,人類只能蹲在地上接受機器人的施捨。每一個新技術都會引發大家的擔心,但以往更多是人的體力的延伸,而如若是腦力的延伸、人類隱私的延伸,這種擔憂將會更加嚴重。筆者認為,性取向識別前,AI還需要解決倫理上的幾大問題。

1. 僅靠面部識別太草率

《人格與社會心理學》雜誌曾對斯坦福的這個研究,指出深層神經網路比人類在透過影象檢測性取向判斷中更準確,研究涉及建立一種計算機模型,以識別研究人員將其稱作為同性戀者的“非典型”特徵。

在摘要中,研究人員寫道,“我們認為人們的臉部特徵包涵了更多人腦所無法判斷的性取向特徵。根據一張圖片,系統(classifier)可以以81%的準確率區分男性同性戀者,74%的準確率區分女性同性戀者,這比人腦可以完成的判斷準確率都要高。”

但是,在距離應用過程中,僅以面部構造識別似乎並沒有那麼“靠譜”。技術無法識別人們的性取向,所謂的技術未來只是識別出網路中同性戀者頭像存在相似的某種樣式。

而且,此研究存在的一個問題在於,研究的機制是透過兩張圖片二選一其中最讓機器覺得“更可能是同性戀”的照片,這種對比判斷其實是從 50% 的隨機機率開始計算的,因此與單純對一張圖的分析有著很大的區別。

這其實就造成了一個問題,在真正人類識別的時候,其準確率有多少,而這種非此即彼的識別方式,其評判標準仍有許多地方需要商榷。

2. 演演算法歧視依然是個“大問題”

演演算法歧視,一直是人工智慧應用過程中的一大問題,以搜尋為例,在谷歌上搜索“CEO”,搜尋結果中沒有一個是女性,也沒有一個是亞洲人,這是一種潛在的偏見。

顯然,人工智慧也並不是真的純“人工”。 機器學習的方式和人類學習一樣,從文化中提取並吸收社會結構的常態,因此其也會再建、擴大並且延續我們人類為它們設下的道路,而這些道路,一直都將反映現存的社會常態。

而無論是根據面容來判斷一個人是否誠實,或是判斷他的性取向,這些演演算法都是基於社會原有生物本質主義(biological essentialism),這是一種深信人的性取向等本質是根植於人身體的理論。畢竟,一個AI工具透過資料積累和演演算法模型可以透過照片判斷一個人的性取向,系統準確率高達91%,這其中所帶來的性取向偏見是不能低估的。

今年年初,來自巴斯大學和普林斯頓大學的電腦科學家就曾用類似IAT(內隱聯想測驗)的聯想類測試來檢測演演算法的潛在傾向性,併發現即使演演算法也會對種族和性別帶有偏見。甚至,連Google 翻譯也難逃偏見,演演算法“發現”並“學習”了社會約定俗成的偏見。當在特定語言環境中,一些原本是中性的名詞,如果背景關係具有特定形容詞(中性),它會將中性詞轉而翻譯為“他”或“她”。

如今的人工智慧還基本侷限於完成指定任務,而有時候許多實際應用內容不是非此即彼的,在許多抉擇中,人類選擇依然存在道德困境,如若將決定權交與演演算法,其存在的詬病之處更是不言而喻。

3. 資料使用,掌握“火候”是關鍵

如果說讓AI野蠻生長是為瞭解決人們工作效率的問題,那麼當人工智慧逐漸落地於各行業後,“體面”已經逐漸取代效率,成為AI應用的關鍵詞。

當然,如果企業能夠全方位的保護使用者隱私,這既有著技術上難度,也缺乏一定商業驅動力,因此,目前來看,如果平衡兩者之間的關係才是關鍵。

實際上,在牽制巨頭破壞使用者隱私方面,歐洲國家已經走得很遠,這體現在這些年他們與Facebook、Google等巨頭對抗的一個個集體訴訟案例中:

2014年8月,Facebook在歐洲遭6萬人起訴,一位奧地利隱私保護人士發起了一項針對Facebook歐洲子公司的大範圍集體訴訟,指控Facebook違背了歐洲資料保護法律,FB被質疑參與了美國國家安全域性的“稜鏡”專案,收集公共網際網路使用的個人資料。

今年1月初,德國政府一家資料保護機構週三表示,該機構已針對Facebook採取法律行動,指控Facebook非法讀取並儲存不使用該社交網站的使用者的個人資訊。德國漢堡資料保護辦公室專員表示,由於Facebook在未經許可的情況下收集並儲存不使用該社交網站的使用者個人資訊,這有可能導致Facebook被罰款數萬歐元。

顯然,目前使用者對於自身資料的保護意識正在不斷加強,其在不斷保護自身資料的同時也加強隱私防範。畢竟,AI識別性取向目前只是研究而沒有落地產品。

而且,從網站上扒圖並不是什麼技術活,讓機器做選擇題的概念,也像極了十多年前哈佛某個宅男做的校園選美網站。其中滋味,冷暖自知吧。

來源:智慧相對論(微信id:aixdlun),深挖人工智慧這口井,評出鹹淡,講出黑白,道出深淺。重點關註領域:AI+醫療、機器人、智慧駕駛、AI+硬體、物聯網、AI+金融、AI+安全、AR/VR、開發者以及背後的晶片、演演算法、人機互動等。

更多精彩


在公眾號後臺對話方塊輸入以下關鍵詞

檢視更多優質內容!


PPT | 報告 | 讀書 | 書單 | 乾貨

Python | 機器學習 | 深度學習 | 神經網路

區塊鏈 | 揭秘 | 高考 | 數學

猜你想看

Q: 感受到AI滿滿的惡意了嗎

歡迎留言與大家分享

覺得不錯,請把這篇文章分享給你的朋友

轉載 / 投稿請聯絡:baiyu@hzbook.com

更多精彩,請在後臺點選“歷史文章”檢視

贊(0)

分享創造快樂