歡迎光臨
每天分享高質量文章

人工智慧在企業應用中的道德規範

人工智慧在企業應用中的道德規範

原文:  The ethics of artificial intelligence in theenterprise

來源: http://aiweek.io/retail-ecommerce/the-ethics-of-artificial-intelligence-in-the-enterprise/

導讀:

  1. AI是指智慧水平不亞於甚至超過人類的軟體產品,也稱為“強AI”。但上述新專案對AI的定義還包括補充或取代人類決策的機器學習和資料驅動演演算法。

  2. 例如,有證據表明,當黑面板的使用者把手放在感測器上時,某些自動皂液器不起作用。這些系統由開發人員用自己的手進行測試,但沒有在膚色不同的使用者身上進行測試。這個例子說明人類創造的演演算法會按照開發者的觀點和偏見行事。

  3. 有多少執行長真正知道他們的公司如何獲得和使用AI和AI演演算法?

原文翻譯:

人工智慧(AI)越來越多地被用於企業應用,它可以透過解析資料來獲得對客戶和競爭對手的有用洞見,從而提供競爭優勢。但還有一個並行的趨勢:評估AI和企業AI演演算法的道德影響。

 

就在去年,麻省理工學院(MIT)和哈佛大學共同開展了一個探索AI道德規範的專案,耗資2700萬美元。最近,谷歌在2014年收購的英國私企DeepMind Technologies組建了一支新的研究團隊,致力於研究AI道德規範。近期其他的AI道德規範專案包括IEEE全球人工智慧和自主系統道德考量計劃、紐約大學AI Now研究所和劍橋大學Leverhulme未來智慧研究中心。

 

AI道德規範為什麼如此令人感興趣,這對企業組織意味著什麼?


最近發生的災難性品牌名聲受損和輿論抨擊揭示了將AI部署到企業中可能伴隨的道德、社會和企業風險。


AI的定義

一些專家堅持認為,AI是指智慧水平不亞於甚至超過人類的軟體產品,也稱為“強AI”。但上述新專案對AI的定義還包括補充或取代人類決策的機器學習和資料驅動演演算法。

 

如果接受後面這個更廣泛的定義,那麼我們必須認識到,AI多年來就已經是電腦時代的特徵。如今,在大資料、網際網路和社交媒體時代,使用人工智慧帶來的許多優勢已經廣為人知,受到普遍認可:人工智慧可以為企業提供競爭優勢、提升效率、洞悉客戶及其行為。


運用演演算法來發現資料中的重要樣式和價值,這幾乎被一致認為是價值創造的省錢途徑,特別是在市場導向的競爭環境中。但AI道德規範專案的興起證明,這些看似有利的AI應用可能會適得其反。最近發生的災難性品牌名聲受損和輿論抨擊揭示了將AI部署到企業中可能伴隨的道德、社會和企業風險。

 

企業組織應該仔細思考他們使用AI的方式,因為這也會帶來商業風險。


企業如果未能發現AI演演算法或機器學習系統開發人員的潛在偏見,就可能會將企業中所有利益相關者的偏見系統化。


人的偏見和歧視

AI演演算法和我們用來訓練這些演演算法的資料集通常來自人類。因此,這些演演算法不可避免地反映了人的偏見。例如,有證據表明,當黑面板的使用者把手放在感測器上時,某些自動皂液器不起作用。這些系統由開發人員用自己的手進行測試,但沒有在膚色不同的使用者身上進行測試。這個例子說明人類創造的演演算法會按照開發者的觀點和偏見行事。

 

這些偏見通常是無意的,但無論造成的後果是否有意為之,犯下上述錯誤的公司都會面臨潛在風險。更重要的是,不管有意還是無意,人造演演算法可能固有的人類偏見在很大程度上逃避了審查,從而導致使用AI的企業面臨風險。

 

企業如果未能發現AI演演算法或機器學習系統開發人員的潛在偏見,就可能會將企業中所有利益相關者的偏見系統化。這會使企業面臨品牌名聲受損、法律訴訟、輿論抨擊的風險,還可能失去員工和客戶的信任。

 

企業應該為自己和社會所做的是否不僅僅是遵紀守法?企業能否自信地說自己對AI的使用是公平的、透明的、對人類負責的?


AI的廣泛應用和風險

存有偏見的皂液器只是一個例子,AI演演算法還可以用於招聘、量刑和安保行動。它們是社交媒體正常執行或不正常執行的內在因素。

 

簡而言之,AI被用於無數的日常和專業工作。它正變得無處不在,它對企業的潛在風險也是如此。我們面臨的挑戰是理解演演算法如何設計和審查,以避免開發者的觀點和偏見(不管是有意還是無意)。這提出了具有挑戰性的問題。

有多少執行長真正知道他們的公司如何獲得和使用AI和AI演演算法?(許多公司與第三方AI解決方案提供商合作。)

 

企業盡職調查是一項法律要求,這是否包括審查企業如何生成和使用AI應用程式?對於使用AI的企業來說,盡職調查和合規性的法律定義是否全面?道德規範和企業責任的傳統概念是否適用於此?


企業應該為自己和社會所做的是否不僅僅是遵紀守法?企業能否自信地說自己對AI的使用是公平的、透明的、對人類負責的?


想要回答這些問題,企業必須審視和闡明自己在企業道德方面的立場,並運用系統性方法來評估風險。


助長趨勢

兩個趨勢可能加劇對AI應用和AI使用者進行風險評估的緊迫性和重要性。首先,消費者、公民和政策制定者越來越重視和擔心人工智慧的日益普及和可能造成的濫用或意外後果。由此產生的結果是,透明度,公平性和問責製作為競爭優勢得到了更多關註。

 

最終,我們希望能夠確定重要的價值觀,將它們嵌入到AI演演算法的設計中,瞭解相關風險,繼續驗證個人、企業和社會在AI實踐方面的有效性。


行動號召

解決這些問題的第一步是意識。你的公司如何使用AI,誰可能受到影響?是否需要聘請外部專家來進行評估?


闡明你公司的核心價值觀也很重要。你使用AI的方式是否符合那些價值觀?如果不是,如何才能讓二者相符?


有資源可以幫助解決這一問題。例如,我是IEEE全球人工智慧和自主系統道德考量計劃的執行成員,該計劃致力於研究各種AI相關應用的最佳實踐,提供有助於加強這方面認識和決策指導的資源,制定AI應用的標準。(IEEE是指電氣與電子工程師協會,是最大的技術專業組織,致力於推動技術發展,造福人類。)

 

一個重要的資源是該計劃的“符合倫理的設計:人工智慧和自主系統優先考慮人類福祉的願景”。這份檔案已釋出第二版,鼓勵技術人員在開發自主和智慧技術的過程中,把道德考量放在優先位置。

 

該計劃與IEEE標準協會展開了密切合作。最近,IEEE標準協會開始制定兒童和學生資料治理、僱主透明實踐和人類介入式AI的標準,確保由人類價值觀來引導影響我們每個人的演演算法開發。


最終,我們希望能夠確定重要的價值觀,將它們嵌入到AI演演算法的設計中,瞭解相關風險,繼續驗證個人、企業和社會在AI實踐方面的有效性。


請放心,這是一個新興的話題,本文表達的擔心和標的仍然是人們積極研究的領域。然而,想要在AI時代成為對社會負責任的企業,企業領導者必須意識到問題所在,開始識別企業價值觀,將之嵌入到AI應用程式的道德設計中。

本次轉自:品覺 微信公眾號(pinjueche.com)

車品覺簡介

暢銷書《決戰大資料》作者;國信優易資料研究院院長;紅杉本中國基金專家合夥人;浙江大學管理學院客席教授;全國信標委員;資料標準工作組副組長;美麗心靈基金會桑珠利民基金副主席。

原阿裡巴巴集團副總裁,首任阿裡資料委員會會長現擔任中國資訊協會大資料分會副會長、中國計算機學會大資料專家委員會副主任、粵港資訊化專家委員、中國計算數學學會第九屆理事、清華大學教育指導委員(大資料專案)、浙江大學管理學院客席教授等職。

版權宣告:本號內容部分來自網際網路,轉載請註明原文連結和作者,如有侵權或出處有誤請和我們聯絡。

商務合作|約稿 請加qq:365242293  


更多相關知識請回覆:“ 月光寶盒 ”;

資料分析(ID : ecshujufenxi )網際網路科技與資料圈自己的微信,也是WeMedia自媒體聯盟成員之一,WeMedia聯盟改寫5000萬人群。

贊(0)

分享創造快樂