艾倫研究所CEO:未來的人工智能并不會消滅人類
- 來源:互聯(lián)網(wǎng)
- 作者:NT
- 編輯:newtype2001
伊隆·馬斯克(Elon Musk)正計劃開發(fā)全自動駕駛汽車。這樣的汽車需要強(qiáng)大的人工智能技術(shù),實時閱讀周圍復(fù)雜的駕駛環(huán)境,并作出反應(yīng)。人工智能正取得令人驚喜的成果。例如上周,AlphaGo的開發(fā)團(tuán)隊報告稱,他們的軟件已經(jīng)可以了解,如何像倫敦本地人一樣在錯綜復(fù)雜的倫敦地鐵里找到路。甚至美國白宮也開始關(guān)注人工智能。幾天前,白宮發(fā)布了一份研究報告,推動美國迎接人工智能的未來。
然而,計算機(jī)科學(xué)家、艾倫研究所CEO奧林·艾奇奧尼(Oren Etzioni)表示,在人們可以將世界交給計算機(jī),或是擔(dān)心計算機(jī)對人類的威脅之前,我們還有很長的路要走。過去幾年,艾奇奧尼專注于研究并解決人工智能的基本問題,他目前擔(dān)任艾倫人工智能研究所CEO。
2014年,微軟聯(lián)合創(chuàng)始人保羅·艾倫(Paul Allen)與他人共同創(chuàng)立了這一研究所(AI2),專注于研究人工智能可能給人類帶來的幫助。該研究所并不認(rèn)為,人工智能會像好萊塢大片中所說的一樣,對人類的生存造成威脅。
微軟聯(lián)合創(chuàng)始人保羅·艾倫
艾倫研究所的項目或許并不那么有趣。這其中包括基于人工智能、用于學(xué)術(shù)研究的搜索引擎Semantic Scholar。不過,他們也會關(guān)注推理等人工智能的其他領(lǐng)域。用艾奇奧尼的話來說,這將使人工智能技術(shù)不再被局限于“狹窄的領(lǐng)域,只能做好某件事”。
在近期于紐約舉行的人工智能大會上,《科學(xué)美國人》對艾奇奧尼進(jìn)行了專訪。在采訪中,他對企業(yè)過度夸大人工智能,尤其是深度學(xué)習(xí)技術(shù)當(dāng)前能力的做法表示了擔(dān)憂。深度學(xué)習(xí)技術(shù)利用神經(jīng)網(wǎng)絡(luò),模擬人腦的神經(jīng)系統(tǒng)去處理大規(guī)模數(shù)據(jù)集,從而讓計算機(jī)自主學(xué)會某些特定的技能,例如識別模式,以及照片中的特定對象。
艾奇奧尼還談到,為何10歲兒童也要比DeepMind的AlphaGo更智能,以及人類為何需要開發(fā)人工智能“衛(wèi)士”程序,確保其他人工智能系統(tǒng)不會對人類構(gòu)成危險。
艾倫研究所CEO奧林·艾奇奧尼
下一頁是專訪主要內(nèi)容

玩家點(diǎn)評 (0人參與,0條評論)
熱門評論
全部評論