解析人工智能道德委員會:為什么它如此重要?
- 來源:互聯(lián)網(wǎng)
- 作者:NT
- 編輯:newtype2001
許多專家認(rèn)為人工智能(AI)可能會導(dǎo)致世界末日——只不過不是好萊塢電影讓我們相信的那樣。例如,電影情節(jié)中,機(jī)器人的智力會不斷增長,直到它們?nèi)〈祟悺,F(xiàn)實(shí)遠(yuǎn)沒有那么戲劇化,但可能會帶來一些不可思議的文化轉(zhuǎn)變。
去年,埃隆·馬斯克,史蒂芬·霍金和比爾·蓋茨等行業(yè)領(lǐng)軍人物致信在阿根廷召開的國際聯(lián)合會議,稱成功采用人工智能可能是人類取得的最大成就之一,或許也是人類歷史上的最后一次成就。他們指出,人工智能帶來了獨(dú)特的倫理困境,如果不加以認(rèn)真考慮的話,它可能會比核能更危險(xiǎn)。
我們怎樣才能在忠實(shí)于我們的道德義務(wù)的同時(shí),實(shí)現(xiàn)人工智能技術(shù)?這個(gè)解決方案需要系統(tǒng)的努力。
建立倫理委員會
透明度是有效整合人工智能的關(guān)鍵。企業(yè)可能錯(cuò)誤地認(rèn)為道德只是緩解風(fēng)險(xiǎn)的一種行為。這種心態(tài)只會讓創(chuàng)新陷入僵局。
創(chuàng)建一個(gè)公司道德委員會,從一開始就與你的股東一起決定哪些行為是道德的,哪些不是。將這一道德準(zhǔn)則與你的商業(yè)文化價(jià)值觀結(jié)合起來,在增加公眾信任的同時(shí),創(chuàng)造創(chuàng)新的產(chǎn)品。一個(gè)道德委員會成員應(yīng)該參與所有新產(chǎn)品的設(shè)計(jì)和開發(fā)階段,包括任何包含人工智能的產(chǎn)品。誠信是一個(gè)組織的基礎(chǔ)。因此,你的道德觀念必須是積極主動(dòng)的,而不是被動(dòng)的。
追求“安全”的創(chuàng)新
一個(gè)堅(jiān)實(shí)的道德基礎(chǔ)會帶來好的商業(yè)決策。例如,開發(fā)一款產(chǎn)品,后來你發(fā)現(xiàn)它會對整個(gè)行業(yè)產(chǎn)生負(fù)面影響,這是沒有意義的。從一開始就運(yùn)用你的道德準(zhǔn)則,你就能在明智地分配資源的同時(shí)創(chuàng)造積極的影響。
然而,一個(gè)道德委員會不是去告訴設(shè)計(jì)和開發(fā)團(tuán)隊(duì)他們能做什么和不能做什么。相反,該委員會應(yīng)當(dāng)鼓勵(lì)團(tuán)隊(duì)在不侵犯公司文化價(jià)值觀的前提下進(jìn)行創(chuàng)新??梢园阉醋魇且粋€(gè)重要的制衡體系;一個(gè)部門可能會如此專注于一項(xiàng)新創(chuàng)新的潛力,以至于部門成員從來不會停下來考慮更大的后果。一個(gè)道德委員會可以根據(jù)令人興奮的新進(jìn)展來保護(hù)你的商業(yè)誠信,這些新進(jìn)展有可能徹底重塑你的組織。
人工智能仍然是一個(gè)相對較新的概念,所以有可能做一些合法但不道德的事情。道德對話不僅僅是團(tuán)隊(duì)成員遵循的清單。他們需要對新產(chǎn)品和公司的意圖提出尖銳的問題和反省。這種“蘇格拉底式的方法”需要時(shí)間,可能會在團(tuán)隊(duì)成員之間制造緊張氛圍——但這是值得的。
創(chuàng)建一個(gè)堅(jiān)實(shí)的基礎(chǔ)
不知道從哪里開始你的道德準(zhǔn)則?首先閱讀斯坦福大學(xué)“《百年人工智能研究》。這份報(bào)告以五年為時(shí)間跨度,回顧了人工智能對文化的影響,從人工智能的創(chuàng)新角度,展望了未來社會的機(jī)遇和挑戰(zhàn),并展望了未來的變化。它的目的是指導(dǎo)決策和制定政策,以確保人工智能造福人類。
把這份報(bào)告作為你的人工智能計(jì)劃的一個(gè)有見地的框架。其他倫理框架的基本要素包括:
· 監(jiān)督保障。你的公司道德是一種協(xié)作的努力。因此,你的道德委員會應(yīng)該有一系列的制衡機(jī)制。
· 風(fēng)險(xiǎn)評估標(biāo)準(zhǔn)。每項(xiàng)創(chuàng)新都應(yīng)滿足基本要求,以確保降低風(fēng)險(xiǎn)。這些要求應(yīng)該來自于你的道德委員會、開發(fā)人員、設(shè)計(jì)團(tuán)隊(duì)、高管層和利益相關(guān)者之間的討論。
選擇自治,而不是規(guī)則
科技行業(yè)擔(dān)心的一個(gè)問題是,自我監(jiān)管的失敗只會導(dǎo)致外部監(jiān)管。斯坦福大學(xué)的報(bào)告認(rèn)為,要對人工智能進(jìn)行充分監(jiān)管是不可能的。風(fēng)險(xiǎn)和機(jī)會因范圍和領(lǐng)域而異。盡管科技行業(yè)對監(jiān)管的理念不以為意,但斯坦福大學(xué)的報(bào)告顯示,各級政府都應(yīng)該更清楚地認(rèn)識到人工智能的潛力。
一個(gè)科技行業(yè)領(lǐng)袖委員會計(jì)劃在本月召開會議,討論人工智能的倫理問題,以及為企業(yè)制定一個(gè)大規(guī)模最佳實(shí)踐指南的可能性。希望?這種討論將產(chǎn)生自省,從而導(dǎo)致所有的人工智能公司都做出道德決策,使社會受益。這一過程需要時(shí)間,而科技公司的競爭是出了名的。但在這一點(diǎn)上,我們一致同意:這是值得付出努力的。


-
傳奇歲月
-
原始傳奇
-
斗羅大陸(我唐三認(rèn)可0.1折)
-
妖神記之巔峰對決
-
無雙戰(zhàn)車(悟空沉默)
-
深淵契約
-
貓狩紀(jì)0.1折
-
靈劍仙師(斗破蒼穹)
玩家點(diǎn)評 (0人參與,0條評論)
熱門評論
全部評論