歡迎光臨
每天分享高質量文章

你的臉就是大資料?那些令人細思恐極的AI技術,亟需法律來規範

導讀:談到人工智慧,有人會覺得它的出現會造福全人類,例如Facebook的CEO馬克·扎克伯格。當然,也有人持反面觀點,例如伊隆·馬斯克、史蒂芬·霍金,他們認為人工智慧發展到某種程度後,可能就會像好萊塢大片裡的劇情一樣,威脅全人類。

那些持反面觀點的人,到底在怕什麼?有證據麼?今天,我們盤點一期那些讓人細思恐極的AI技術,來看看人工智慧是否值得引起人類足夠的擔憂。

 

 

來源:THU資料派(ID:datapi)

 

01 攝像頭監控情緒,鑒別罪犯和性取向

近年來得益於深度學習的迅速發展,人臉識別領域取得了重大進展。開發者可以基於神經網路讓機器模擬出人類大腦的學習過程,並透過摺積神經網路模型和海量的圖片資料進行訓練,使生物識別從以前70%、80%的準確率提升至近幾年的99.6%甚至99.7%,具備商用條件。

於是,“刷臉”成為了熱詞,人臉識別技術不斷進入大眾視野,在人們衣食住行的各個領域發力,迎來運用的“井噴期”,其中,金融和安防等行業成為應用“先鋒”領域。隨著人臉識別技術的商用場景不斷擴充,市場潛力巨大,資本嗅到商機紛紛湧入。

但隨著人臉識別技術的不斷成熟與普及,這項技術也逐漸讓人覺得細思恐極。

首先,人臉特徵與指紋、虹膜相比,是一個具有弱隱私的生物特徵。例如,很多人都會發自拍照,也是相對公開的特徵。如何保證使用者資料安全尤為關鍵。

據媒體報道,在一個名為“你的臉就是大資料”的專案中,俄羅斯攝影師葉戈爾·茨韋特科夫在聖彼得堡用了6周時間拍攝100名地鐵乘客的人臉照片,之後利用人臉識別工具比對俄羅斯最大社交網站VK(VKontakte)上的5500萬使用者,找到了大約70名乘客的個人資料。

因此,在如今公共場合遍佈攝像頭、各種手機APP具備人臉識別功能的環境中,如何確保收集使用者資料的部門和企業有效保障資料安全是非常令人擔憂的事情。

其次,人臉識別技術存在濫用現象。如果說在大街小巷安裝攝像頭、在火車站機場採用人臉識別技術是出於公共安全考慮,那麼在學校課堂採用人臉監控則引發大家的不適情緒了。

據媒體報道,杭州某中學將一款名為“智慧課堂行為管理系統”的科技應用於課堂教學。該系統在學生上課起立時,幾秒鐘便可完成點名,用刷臉代替傳統意義上的口頭點名和刷卡。

 

此外,該系統每隔30秒會進行一次掃描,針對學生們閱讀、舉手、書寫、起立、聽講、趴桌子等6種行為,再結合面部表情是高興、傷心,還是憤怒、反感,分析出學生們在課堂上的狀態。

該訊息一經報道,立刻引起網路爭議。支持者認為,這種行為沒有問題,畢竟一切是為了孩子的前途。反對者則認為,科技是用來服務人的,而不是監視人的。對學生上課行為實施全程監控,侵犯了學生隱私,增加了學生的壓力,況且用同一個標準監視學生對學生來說也不公平。

或許,總會有一些家長們在面對孩子學習情況時變身虎爸虎媽嚴苛無比,但當他們自身經歷被無處不在的攝像頭監控並識別情緒、分析心理活動時,就另當別論了。此前百度宣佈要推出一款基於人臉識別的社交軟體,能夠幫助戀愛小白識別物件的情緒,從而做出相應舉動。如果這項功能真的很成熟,這恐怕並非有助於戀愛,而是讓人感到害怕了。

 

試想一下,甲方爸爸教你學做人,你面帶微笑洗耳恭聽,這時對方拿出攝像頭企圖判斷你是否正在腹誹;你成為被告站在法庭上為自己辯護,來自各個方向的大大小小的攝像頭對準你,記錄你每一個細微表情,分析你是否撒謊;或者中美貿易代表團談判時,雙方都拿出攝像頭來試探對方底線……

 

這將是一個“老大哥正在看著你”的世界,人人企圖窺探別人內心,人人也害怕被窺探到真實情緒。

除了AI技術識別情緒令人害怕,其他遭人非議的還有鑒定性取向、識別罪犯、政治傾向等。這種除了涉及到嚴重侵犯個人隱私權的問題,還有可能由於演演算法存在偏見導致鑒定結果出現偏差。如果將這種不加修正和制約的AI技術作為參考依據,將會為全球因意識形態、宗教信仰不同所造成的摩擦鬥爭火上澆油。

 

02 麥克風偷聽使用者講話、監聽手機打字

“我的命,我自己操盤”,這是《竊聽風雲2》中的經典臺詞,但現實生活中,我們可能連自己手機的麥克風都操盤不了。

你遇到過這樣的情況嗎?剛說了想吃什麼,手機裡就蹦出了它的推薦;剛說了要買什麼,就出現了精準推送的廣告。由於有多名使用者反映類似情況,有記者專門耗時3個多月,透過模擬使用者使用場景,對安卓手機、蘋果手機、蘋果平板電腦上的餓了麼和美團外賣進行多輪測試。從測試情況來看,在隨後數分鐘到數小時的時間裡,出現相關推薦的機率高達60%-70%。

儘管餓了麼和美團均否認“監聽使用者日常對話並做資訊分析”,目前也沒有任何證據能夠證明APP透過麥克風偷聽使用者講話,不過亞馬遜智慧音箱Echo被爆“偷聽”使用者對話已是證據確鑿。

除了此前有Echo偷聽使用者談話,並將談話內容發給其他聯絡人的新聞傳出,最近亞馬遜還被彭博社爆出擁有千人監聽團隊,他們人工聽取和檢查使用者和智慧語音助手Alexa的私人對話,目的是幫助Alexa改進語音識別技術。

 

報道稱,有時候,參與其中的工作人員會聽到使用者私人的聲音片段,如一個女人洗澡時嚴重走調的歌聲,或者一個孩子尖叫著尋求幫助。還有兩名員工甚至稱,他們聽到過他們認為是性侵案的聲音。當這種事情發生時,他們會在內部聊天室說出來解壓。

儘管亞馬遜發言人辯解他們只會註釋極小一部分的Alexa錄音樣本,幫助訓練語音識別和自然語言理解系統的資訊,目的是為了改善使用者體驗,“我們有嚴格的技術和操作保障,對濫用我們系統的行為採取零容忍政策。員工在工作流程中無法直接訪問能辨別使用者和賬號的資訊。我們使用多重驗證來限制訪問,對服務加密,審計我們的工作環境,以對所有資訊高度保密。”

但亞馬遜在其宣傳和隱私政策的材料中,沒有明確表明Alexa獲取的一些對話錄音是人工來聽,只是在常見問題解答串列中提到了一句“我們使用您對Alexa的命令來訓練我們的語音識別和自然語言理解系統”。Alexa的隱私設定中,公司給使用者提供了禁用錄音開發新功能的選項。

 

彭博社看到的截圖顯示,傳送給工作人員的Alexa錄音沒有提供使用者的全名和地址,但與使用者的賬戶號、名稱和裝置序列號相關聯。

除了Alexa,依賴人類員工填補演演算法空白的,還有谷歌、Siri。早在 2014 年,谷歌 Chrome 瀏覽器就被曝出其語音識別功能存在漏洞,或將致使使用者的電腦麥克風長期被駭客監聽。即使不是被駭客監聽,Chrome 也一直被很多人質疑透過麥克風竊聽使用者談話,並透過談話內容向用戶推薦相應的廣告。

由此可見,那些需要進行訓練語音識別和自然語言理解系統的軟/硬體都存在竊聽的可能,麥克風的安全隱患並不比攝像頭所帶來的小。並且,隨著科技的進步,這種竊聽行為已達到細思恐極的地步。

不久前,媒體報道劍橋大學的一個科研團隊透過手機的內建麥克風,搭配AI演演算法,就能讓輸入的每一個字處於監聽狀態,哪怕是觸控式螢幕手機。

和大眾所瞭解的常識不同,事實上,即使是在觸控式螢幕上輕悄悄地操作,手指的每一次輕微的敲擊都會產生聲波。當戳擊螢幕不同位置時,聲波資訊也會有相應的變化,這些資訊恰巧可以被手機內建的麥克風捕捉到。

 

於是研究人員利用這個特點,開發了一個手機惡意應用程式,當這個程式被植入手機時,能夠調動內建麥克風,讓其秘密開始工作,記錄下觸控時的聲波資訊。隨後,科學家們收集了聲波形狀與觸控位置的對應資訊,訓練出了一個AI模型,還原輸入內容。

 

至此,作案流程已經基本成型:惡意程式悄悄啟動→悄悄捕捉輸入密碼時的聲波→AI模型預測手指對應在螢幕的位置→還原輸入的密碼和資訊。

AI夥同麥克風,分工明確,裡應外合,井然有序地就能將你的隱私偷走。並且,隨著科學進一步研究,目前能夠具備監聽功能的遠不只是麥克風。

例如利用硬碟監聽。硬碟工作的時候,主軸高速運轉帶動碟片,上面的磁頭會感應碟片上的磁場變化,透過改變磁場,來寫入資料。這個過程非常精細。只要受到外部的聲波衝擊,磁頭就會發生偏移。硬碟的位置感測器,產生的電壓訊號裡就會體現出這個偏移。然後,科學家會利用AI來分析這個細小的偏移,以此還原人類說的話。

 

此外,科學家還認為薯片包裝袋、鋁箔、水杯甚至盆栽植物,只要能受到聲波幹擾的物體,便能變成監聽工具。儘管這些方法尚在研究階段,但也足以讓人擔心。

 

03 智慧機器人騷擾電話+大資料營銷+探針盒子非法獲取使用者隱私

在今年的315晚會上,央視曝光了“機器人撥打騷擾電話+逃避監管的特殊方法+惡意收集的隱私大資料”的一條龍產業,情況令人觸目驚心。

晚會報道稱,目前,屢禁不絕的騷擾電話部分是由機器人在撥打,而這類外呼機器人僅花費3000元就能從一些高科技企業那買到。相較於人工一天最多撥出三五百個電話,機器人可以不休不眠地打電話,一天能打出幾千個。例如被央視曝光的某企業負責人就承認,他們公司機器人在一年多時間裡撥打出去的騷擾電話已經超過40億。

AI電話機器人的工作原理很簡單,就是將原始聲波轉為文字,然後電腦透過關鍵詞自動識別語意,在話術庫中匹配到話術,然後播放出來。每套系統均被設定有總流程,一旦總流程走完,機器人將自動結束通話電話。

 

目前,市場上常見電話機器人的總流程大致可分為介紹服務、資訊問詢、索取聯絡方式三個部分。由於基本話術有限,所以機器人不可能解答出所有被提問到的問題。對於機器人未能回答的問題,會被系統按照序號記錄下來,當把對這些問題的解答錄音匯入系統後,機器人再被問到相同問題就可以答覆出來。

此外,AI電話機器人還可以在一定程度上識別人類聲音,迅速做出判斷,按照劇本引導使用者進行對應操作,並藉助大資料識別過濾能力,篩選出更精準的標的使用者,這意味著AI電話呼叫有可能會朝著越來越垂直的方向發展。目前,AI電話營銷機器人備受貸款、股票行業的青睞。

至於為何這種電銷公司如此猖狂、難以查封,則是因為一些機器人研發公司透過一種“硬體透傳”的方法將騷擾電話的記錄徹底隱藏,讓監管部門也無據可查。

用機器人撥打騷擾電話,加上逃避監管的特殊方法,一些外呼公司的外呼量大幅增加,那如何獲取更多號碼資源呢?

央視揭露,目前市場上存在一類名為“探針盒子”的產品,大小同充電寶一般。當使用者手機無線區域網處於開啟狀態時,會向周圍發出尋找WiFi的訊號,“探針盒子”發現這個訊號後,就能迅速識別出使用者手機的MAC地址。盒子採集到手機裡面的MAC地址,自動轉換成IMEI號,再轉換成手機號碼。

蒐集附近使用者手機號碼、撥打騷擾電話只是探針盒子的功能之一,3·15晚會上還曝光了不少科技公司推出的類似產品。

 

例如璧合科技的招財喵、智子資訊科技的智子盒子,不僅可以收集使用者手機號碼,甚至可以對使用者進行精準畫像,曝光的個人資訊包括性別、年齡、婚姻狀況、學歷甚至於薪資。一些公司將這種產品放在商場、超市、便利店、寫字樓等地,在使用者毫不知情的情況下,蒐集個人資訊。

至於這些盒子背後的大資料,主要來源於使用者手機上所安裝的一些軟體。通常,我們在安裝一個APP時,第一步跳出的是使用者服務條例。如果需要安裝這個APP,必須得點選同意這個服務條例才能安裝。隨後,APP會要求開通許可權,例如是否允許訪問通訊錄、手機檔案夾、訪問麥克風、攝像頭等。在你點選允許之後,當你使用APP時候會產生使用者資料,而這些資料可以用作商業營銷用途。

為了能正常使用App,使用者只能同意被獲取個人號碼等資訊,然而在使用者不知情的情況下,這些個人資訊卻變成了一些企業的牟利工具,被房地產、貸款、教育培訓等第三方公司,用作撥打騷擾電話等商業營銷用途。

透過盤點我們發現,那些讓人細思恐極的AI技術,最令人害怕的地方都在於隱私洩露而大家毫不知情(萬分慶幸AI軍事化被聯名抵制)。我們生活在一個安全感和信任感逐漸崩塌的時代,除了對衣食住行的安全需求,在這個資訊化時代,個人資訊的洩露同樣讓人失去安全感。

李彥宏曾在某論壇上表示中國人對隱私問題沒那麼敏感,很多情況下願意用隱私交換便捷性。這句話之所以引起眾人憤慨,是因為得了便宜還賣乖。

 

事實上,使用者們在網際網路上“裸奔”全都是出於無奈。因為幾乎所有的網際網路應用都在盡可能地蒐集你的資訊、你的社交圈、你的消費習慣、你的個人愛好,而且明裡暗裡的重重技術門檻,讓你防不勝防甚至防也沒用。除非不使用網際網路,否則你的資訊和隱私就無處隱藏。

科技的進步不應該讓隱私保護成為空談,除了相關法律法規的完善,或許,我們還可以從歐美科技巨頭的做法中得到啟示。

 

此前谷歌宣佈解散僅成立十天的AI道德委員會,引發業界轟動。谷歌解散委員會是因為其中的部分成員的身份、個人主張引發爭議,不少人工智慧專家表示反對,同時谷歌員工也開始以聯名信的形式要求剔除該成員。於是谷歌公司宣佈在目前的環境中,人工智慧道德委員會無法按照他們想要的方式運作。所以,決定暫時關閉委員會從頭再來。

從此次事件可以看出,輿論承擔著監督的作用,強大到不可想象。如果我們每個人都如此一般註重個人權益,註重科技發展是否遵循倫理道德,抗議科技巨頭無所顧忌地收集使用個人資料,抗議隱私洩露所造成的負面影響,即使目前科技發展的法律法規和倫理道德規範難以制定完善,也能消除“李彥宏們”的刻板印象,並讓他們投鼠忌器了。

    已同步到看一看
    贊(0)

    分享創造快樂