馬斯克再發(fā)警告:人類難逃被機(jī)器人獨(dú)裁的命運(yùn)
- 來(lái)源:網(wǎng)易智能
- 作者:skylark
- 編輯:豆角
人工智能已經(jīng)在多個(gè)領(lǐng)域戰(zhàn)勝了人類,人類應(yīng)該畏懼AI嗎?最近撤出OpenAI研究的埃隆·馬斯克再次發(fā)出警告,稱超級(jí)智能(Superintelligence)可能會(huì)創(chuàng)造出一個(gè)“不朽的獨(dú)裁者”。
在美國(guó)電影導(dǎo)演克里斯·潘恩(Chris Paine)制作的一部紀(jì)錄片中,馬斯克表示,在公司或其他人類組織的推動(dòng)下,超級(jí)智能的發(fā)展可能會(huì)誕生一種統(tǒng)治世界的人工智能形式。
馬斯克稱:“我能想到的最不可怕的未來(lái)是,我們至少能把人工智能民主化,因?yàn)槿绻患夜净蛞恍∪喝顺晒Φ亻_發(fā)出了上帝般的數(shù)字超級(jí)智能,它們就能接管世界。”他說(shuō):“對(duì)于邪惡的人類獨(dú)裁者來(lái)說(shuō),至少那個(gè)人會(huì)死亡。但對(duì)于人工智能來(lái)說(shuō),將沒有死亡,它將永遠(yuǎn)活著,然后你就會(huì)面對(duì)一個(gè)不朽的獨(dú)裁者,我們?nèi)祟悓⒂肋h(yuǎn)無(wú)法逃脫。”
據(jù)了解,潘恩的紀(jì)錄片調(diào)查了一些人工智能的應(yīng)用實(shí)例,包括自動(dòng)武器、華爾街的技術(shù)和操縱假新聞的算法等。它還引用了一些有關(guān)人工智能的文化作品,比如1999年的電影《黑客帝國(guó)》(the Matrix)和2016年的電影《機(jī)械戰(zhàn)警》(Ex Machina)。
對(duì)于哪些公司希望開發(fā)出超級(jí)智能,馬斯克列舉了谷歌的人工智能子公司DeepMind的例子。2016年,該公司開發(fā)的圍棋程序阿爾法狗(AlphaGo)擊敗了人類圍棋世界冠軍、韓國(guó)棋手李世石,這是繼1997年IBM的深藍(lán)電腦(DeepBlue)擊敗國(guó)際象棋冠軍卡斯帕羅夫(Garry Kasparov)后,人工智能發(fā)展史上的又一個(gè)重大成就。
馬斯克表示:“DeepMind系統(tǒng)可以在任何游戲中獲勝,它已經(jīng)可以攻克所有的原始Atari游戲,它是超級(jí)人類;它能以超級(jí)速度攻克所有的游戲,在不到一分鐘的時(shí)間里。”這位同時(shí)擔(dān)任特斯拉和SpaceX首席執(zhí)行官的企業(yè)家表示,人工智能“不需要作惡,就可能摧毀人類。”
他說(shuō):“如果人工智能有一個(gè)目標(biāo),而人類恰好成為攔路虎,那么它將摧毀人類,這是理所當(dāng)然的事情,它甚至不會(huì)有一點(diǎn)猶豫,也沒有什么難受的感覺。”
馬斯克稱:“這就像,如果我們正在修建一條公路,而一個(gè)蟻丘恰好在路上,我們并不憎恨螞蟻,我們只是在筑路,所以,再見了蟻丘。”去年,馬斯克警告稱,全球?qū)θ斯ぶ悄芗夹g(shù)的爭(zhēng)奪,可能導(dǎo)致第三次世界大戰(zhàn)。這位企業(yè)家還表示,與朝鮮的核沖突相比,新興技術(shù)可能給世界帶來(lái)更大的風(fēng)險(xiǎn)。
此外,馬斯克認(rèn)為,人類應(yīng)該與人工智能融合,以避免變得無(wú)關(guān)緊要的風(fēng)險(xiǎn),他是Neuralink的聯(lián)合創(chuàng)始人,這是一家腦機(jī)接口初創(chuàng)公司,希望將人腦與電腦接口連接起來(lái)。今年2月份,他辭去了OpenAI董事會(huì)的職務(wù),OpenAI是一家非營(yíng)利組織,旨在安全地促進(jìn)和發(fā)展人工智能。
事實(shí)上,最近人工智能威脅論正在不斷升溫。
近日韓國(guó)科學(xué)技術(shù)院與韓國(guó)十大財(cái)團(tuán)之一韓華集團(tuán)旗下韓華系統(tǒng)公司合作,開設(shè)了人工智能研發(fā)中心,目的是研發(fā)適用于作戰(zhàn)指揮、目標(biāo)追蹤和無(wú)人水下交通等領(lǐng)域的人工智能技術(shù)。
這也引起業(yè)內(nèi)專家的廣泛擔(dān)憂,目前,30個(gè)國(guó)家和地區(qū)的人工智能及機(jī)器人專家宣布將抵制研究人工智能武器的韓國(guó)科學(xué)技術(shù)院(KAIST),這由澳大利亞新南威爾士大學(xué)人工智能教授托比·沃爾什發(fā)起,美國(guó)和日本等30個(gè)國(guó)家和地區(qū)的研究人員4日簽署了一封公開信,敦促韓國(guó)科學(xué)技術(shù)院停止人工智能武器研發(fā),他們稱這是加速機(jī)器人武器開發(fā)競(jìng)爭(zhēng)的動(dòng)向,令人遺憾,并表示如果該大學(xué)不承諾停止研發(fā),將與之?dāng)嘟^關(guān)系,而且將拒絕訪問韓國(guó)科學(xué)技術(shù)院、接待對(duì)方訪客或與對(duì)方合作研究項(xiàng)目,直至這所韓國(guó)頂尖大學(xué)承諾放棄研發(fā)缺少“有效人工控制”的武器。
網(wǎng)易智能注意到,這封聯(lián)名信中寫道:“自動(dòng)武器一旦成熟,戰(zhàn)爭(zhēng)發(fā)展速度和規(guī)模將前所未有,它們可能會(huì)被恐怖分子利用。”發(fā)起聯(lián)名抵制的人工智能教授沃爾什告訴路透社記者,機(jī)器人和人工智能技術(shù)實(shí)際可以在軍事領(lǐng)域發(fā)揮有利作用,比如完成掃雷等威脅人類安全的任務(wù),但我們不能將決定生死的權(quán)力交給機(jī)器,這就越過道德底線。
此外,Google內(nèi)部流傳著一封聯(lián)名信,有3100多人在上面簽名,抗議谷歌為五角大樓提供人工智能力量,谷歌的員工希望谷歌CEO退出五角大樓的代號(hào)為Maven的項(xiàng)目,并宣布“永不開發(fā)戰(zhàn)爭(zhēng)技術(shù)”的政策。
值得一提的是,早在今年3月,來(lái)自14個(gè)組織的26名研究人員對(duì)惡意AI所造成的危險(xiǎn)進(jìn)行了全面的報(bào)告。


-
傳奇歲月
-
原始傳奇
-
斗羅大陸(我唐三認(rèn)可0.1折)
-
妖神記之巔峰對(duì)決
-
無(wú)雙戰(zhàn)車(悟空沉默)
-
深淵契約
-
貓狩紀(jì)0.1折
-
靈劍仙師(斗破蒼穹)
玩家點(diǎn)評(píng) (0人參與,0條評(píng)論)
熱門評(píng)論
全部評(píng)論