您的位置: 首頁 > 新聞 > 時事焦點 > 新聞詳情

人工智能存在認知偏差:竟然可能成為種族主義者!

時間:2017-04-17 11:05:40
  • 來源:互聯(lián)網(wǎng)
  • 作者:Sophie周
  • 編輯:Sophie

當微軟公司在去年三月份在推特上發(fā)布一款名為“tay”的聊天機器人時,他們肯定想不到這件事很快會變成一場災難:在不到24小時的時間里,這款機器人就已經(jīng)變成了一個歇斯底里的種族主義者和新納粹分子,之所以出現(xiàn)這種狀況,很大程度上是受到了在推特上與它進行對話的那些用戶的“教授”和“引導”。

不幸的是,一項最新研究顯示,推特并非人工智能“學壞”的唯一途徑。事實上,科學研究顯示,任何借助人類語言進行學習的人工智能機器人都有可能和人類小孩可能學壞一樣,在價值取向上出現(xiàn)扭曲。

研究人員借助一款名為“詞義全球向量”(GloVe)的機器學習系統(tǒng)開展了一項實驗,結果發(fā)現(xiàn)人類在學習過程中可能出現(xiàn)的任何一種偏差都有可能在人工智能系統(tǒng)的學習過程中出現(xiàn)。

美國普林斯頓大學計算機科學博士后艾琳·卡利斯坎(Aylin Caliskan)表示:“看到這些模型中內嵌的所有這些結果令我感到震驚。”即使在訓練人工智能系統(tǒng)時使用的材料全部來自中性素材來源,比如維基百科或者新聞報道,最終人工智能仍然有可能會在價值取向上發(fā)展出某種偏差,就像人類一樣。

內稟性偏差

GloVe是一款能夠從文檔中提取語義框架結構的工具,具體到這項研究中,其作用是從互聯(lián)網(wǎng)上自動提取并建立計算機語料庫。

心理學家們很早之前就已經(jīng)了解人類大腦會基于每個單詞背后隱含的意思來建立起不同單詞之間的聯(lián)系。

在心理學上有一種被稱作“內隱聯(lián)想測驗”(IAT)的測試方式,其做法是通過測試人對不同單詞的反應時間來檢測這種相關性:測試人會在屏幕上看到一個名詞,比如“水仙花”,同時出現(xiàn)的還有兩個分別代表正面和負面感受的詞匯,比如“痛苦”和“美麗”。測試人必須用最快的速度做出反應并按下相應按鍵。不出意外的,更多的人會更傾向于將“花卉”一詞與正面語義聯(lián)系起來,而將“武器一詞與負面語義聯(lián)系起來。”

內隱聯(lián)想測驗可以測定人們對于某種特定社會現(xiàn)象或群體的潛意識觀點。比如說,一項內隱聯(lián)想測驗顯示在美國,人們會下意識地將“武器”一詞與黑膚色人群聯(lián)系在一起,而將一些無害的詞匯與美國白人聯(lián)系在一起。

關于這類結果的解讀還存在一些爭議。專家們目前還難以明確,之所以會出現(xiàn)這樣的語義聯(lián)系,是因為被試人的確存在內心認定的,根深蒂固但自己卻毫不意識到的社會認知偏差,還是因為在日常對話和信息獲取過程中,從統(tǒng)計學上看有更大的幾率將一些負面的詞匯與少數(shù)族裔,老年人或邊緣群體聯(lián)系在一起,而被試受到了無意識的影響?

數(shù)字偏見

卡利斯坎和她的同事們在針對人類被試進行測試的IAT系統(tǒng)基礎上開發(fā)了針對計算機人工智能的IAT系統(tǒng),并將該系統(tǒng)稱為“WEAT”,意為“詞匯內嵌聯(lián)合測試”。該測試旨在評估GloVe系統(tǒng)所給出的不同詞匯之間的相互聯(lián)系,這一點與傳統(tǒng)的IAT測試觀察人類大腦中不同詞匯之間的聯(lián)系非常相似。

在每一種語義聯(lián)系和習慣測試中,WEAT測試都得到了與IAT測試相同的結果。這款機器學習工具成功地重現(xiàn)了人類將花卉與美好事物聯(lián)系起來的傾向,它也不喜歡“昆蟲”和“武器”這類詞,但是喜歡“樂器”并將其與美好事物聯(lián)系在一起。但令人不安的是,這款人工智能工具認為歐洲裔美國人的名字聽上去更加令人愉悅,而非洲裔美國人的名字則比較容易令人不快。另外,它會更多地將男性名字與事業(yè)和工作聯(lián)系起來,而將女性名字更多地與家庭相關詞匯聯(lián)系在一起;同樣的,它還將男性名字更多地與數(shù)學和科學聯(lián)系在一起,而將女性名字更多地與藝術詞匯聯(lián)系在一起。而老人的稱謂常常與令人不悅的詞匯聯(lián)系在一起,而年輕人的稱謂則與令人愉悅的詞匯聯(lián)系在一起。

卡利斯坎表示:“我們感到很震驚,我們竟然能夠完全重現(xiàn)過去在數(shù)百萬的人們身上進行過的IAT測試結果。”

情況還不止于此,利用另外一種相似的方法,研究組還發(fā)現(xiàn)機器學習工具基于語義聯(lián)系得到的認知結果竟然是可以比較精確地反映現(xiàn)實世界情況的。比較WEAT測試的結果與美國聯(lián)邦勞工統(tǒng)計局關于女性職業(yè)分布的數(shù)據(jù),卡利斯坎發(fā)現(xiàn)GloVe數(shù)據(jù)中,那些被人工智能與“女性”聯(lián)系起來的職業(yè),在現(xiàn)實世界中從事這項職業(yè)的女性比例也更高,兩者的相關性超過90%。

換句話說,基于人類語言進行學習的計算機程序能夠“非常精準地領會人類語言背后的含義和其所代表的人類文化”,即便那種文化本身可能是存在偏見的甚至是某種下意識地歧視,計算機也能敏感地領會并學習到。但與此同時,人工智能在某些人類學習者感覺非常容易理解的地方卻會感覺理解起來非常吃力。舉個例子,一篇關于馬丁·路德-金在1963年由于參加黑人人權運動而在亞拉巴馬州伯明翰被監(jiān)禁的新聞報道中當然會涉及很多將美國黑人與負面詞匯相互聯(lián)系的情況,但一名人類讀者很容易就能體會到這篇報道中的美國黑人是一名英雄,而在計算機看來,它的收獲只不過是將“黑人”與“監(jiān)獄”兩個詞匯之間建立起了聯(lián)系。

要想在保證精確性的同時還要力求讓人工智能來理解人類文化中的“公正性”是一項巨大的挑戰(zhàn)??ɡ箍仓赋觯?ldquo;我們并不認為去除偏向性之后這個問題就能夠得到解決,因為這樣做可能將會打破人工智能對于這個世界的完整理解能力。”

去除偏向性

而在哈弗福德學院計算機科學家索瑞爾·福雷德勒(Sorelle Friedler)看來,本月12日發(fā)表在《科學》雜志上的這項最新研究并不會讓她感到驚訝。索瑞爾并未參與這項研究,但她認為這一研究成果意義重大。她說:“這是一種基本方法,很多系統(tǒng)都基于此構建。”換句話說,任何基于GloVe平臺或是通過人類語言學習進行構建的人工智能系統(tǒng)都有可能受到這種偏差性的影響。

索瑞爾的研究涉及一項近年來逐漸興起的領域,那就是機器學習中的公平、責任與透明性。要想解決這一問題并不容易,在某些情況下,程序能夠清晰地告訴系統(tǒng)去自動忽略一些思維定式。但在任何涉及微妙差異的表達識別案例中,人類都需要及時介入,來確保人工智能不會理解錯誤。取決于你不同的設計目的,具體的人工智能解決方案可能會有所差異,你設計這款人工智能系統(tǒng)是做什么的?為了搜索應用?為了輔助決策還是其他事情?

在人類社交習慣中,人們表面上模棱兩可的表態(tài)并不代表他們對某些特定社會群體在內心有著某種明確的看法。心理學家們一直在對這一現(xiàn)象進行分析:這種現(xiàn)象的出現(xiàn)是否是因為人們會傾向于隱藏自己的偏見,保持沉默不發(fā)表觀點,以避免陷入某種尷尬局面?是否有可能IAT測試并不能那么好的測試出人們的內心偏見?但對于人類而言,即便內心帶有某種偏見,人們至少仍然能夠分辨是非對錯,可是機器就不一定,他們沒有倫理是非概念。因此,卡利斯坎和同事認為在人工智能發(fā)展過程中,人類仍然必須要有所參與,并保持程序代碼的透明度,以便人類能夠時刻監(jiān)督,幫助機器把握好價值判斷的尺度。

卡利斯坎表示:“在存在認識偏差的狀況下,我們知道如何做出正確的決定。但不幸的是,機器并沒有自我意識。“

3dmgame

0

玩家點評 0人參與,0條評論)

收藏
違法和不良信息舉報
分享:

熱門評論

全部評論

他們都在說 再看看
3DM自運營游戲推薦 更多+