艾倫研究所CEO:未來的人工智能并不會消滅人類
- 來源:互聯(lián)網(wǎng)
- 作者:NT
- 編輯:newtype2001
問:關(guān)于開發(fā)人工智能技術(shù)的最佳方式,研究人員之間是否存在分歧?
艾奇奧尼:我們在語音識別、無人駕駛汽車等領(lǐng)域取得了真正的發(fā)展,當(dāng)然還有AlphaGo。這些都是真正的技術(shù)成就。然而,我們要如何進行表述?深度學(xué)習(xí)很明顯是極具價值的技術(shù),但我們在開發(fā)人工智能的過程中還有許多其他問題要解決,例如推理(這意味著機器可以理解2+2=4,而不僅僅是根據(jù)規(guī)則去計算),以及掌握背景知識去建立上下文環(huán)境。自然語言理解是另一個案例。即使我們已有AlphaGo,我們還無法開發(fā)出一種軟件,閱讀并充分理解某個文章段落,或是簡單的句子。
問:有觀點認為,關(guān)于人工智能,深度學(xué)習(xí)是“我們掌握的最佳手段”。這是否是對深度學(xué)習(xí)技術(shù)的不看好?
艾奇奧尼:如果你掌握了大量已被標(biāo)記的數(shù)據(jù),讓計算機知道這些意味著什么,而如果你又掌握了大量計算資源,并試圖從這些數(shù)據(jù)中找尋模式,那么我們已經(jīng)看到,深度學(xué)習(xí)是不可擊敗的。就AlphaGo而言,這一系統(tǒng)處理過3000萬種棋型,從而令人工智能知道在不同情況下什么樣的下法是最優(yōu)的。其他一些情況也很類似,例如醫(yī)院的放射影像。如果我們可以把許多影像圖片標(biāo)記為存在腫瘤或不存在腫瘤,那么深度學(xué)習(xí)軟件就可以自行判斷,未知圖片上是否存在腫瘤。利用深度學(xué)習(xí),可以做的有很多。這是一種領(lǐng)先的技術(shù)。
問:那么問題是什么?
艾奇奧尼:問題在于,智能有很多種,不僅僅是你用大數(shù)據(jù)去訓(xùn)練一個程序??梢韵胂髽?biāo)準(zhǔn)化考試,例如SAT考試或大學(xué)入學(xué)考試。軟件不可能去觀察此前的3000萬次被標(biāo)記為“成功”或“不成功”的考試,從而拿下最高分。這是個更復(fù)雜,需要互動學(xué)習(xí)的過程。智能性也包括通過建議、對話內(nèi)容,以及書本的學(xué)習(xí)能力。盡管深度學(xué)習(xí)取得了極大的進展,但我們?nèi)晕茨荛_發(fā)出一種軟件,讓其實現(xiàn)10歲兒童可以做到的事,即拿起一本書,閱讀其中某個章節(jié),隨后回答關(guān)于這部分內(nèi)容的問題。
問:那么,人工智能要如何才能通過標(biāo)準(zhǔn)化考試?
艾奇奧尼:在艾倫研究所,我們已開展了這方面的研究項目。去年,我們宣布了一筆5萬美元的獎金。任何人如果能開發(fā)出人工智能軟件,使其通過8年級的標(biāo)準(zhǔn)科學(xué)考試,那么將可以贏得這筆獎金。來自全球的超過780個團隊參加了這一項目,嘗試了幾個月時間,但沒有任何團隊開發(fā)的人工智能系統(tǒng)能達到60分,即使這只是8年級考試中的多選題。這表明了我們的現(xiàn)狀。
問:頂級人工智能系統(tǒng)正確回答問題的能力如何?
艾奇奧尼:通常情況下,語言中會包含線索。最前大的系統(tǒng)會利用來自科學(xué)教材和其他公開來源的信息,并通過強大的信息檢索技術(shù)去進行搜索,為每道多選題尋找最佳答案。例如,以下的最佳導(dǎo)電材料是什么?選項包括,塑料湯匙、木頭叉子,以及鐵棒。程序非常善于用公式。它們可以發(fā)現(xiàn)在許多文件里,電力或?qū)щ娡c鐵關(guān)聯(lián)在一起,而不會與塑料關(guān)聯(lián)在一起。因此在某些情況下,程序能走捷徑,發(fā)現(xiàn)答案。這與孩子們有根據(jù)的猜測類似。由于沒有任何系統(tǒng)達到60分,我可以認為,這些程序只是使用統(tǒng)計學(xué)方法進行有根據(jù)的猜測,而不是用推理方式去思考問題。
問:開發(fā)AlphaGo的DeepMind團隊目前開發(fā)了人工智能程序,利用外部記憶系統(tǒng)突破了深度學(xué)習(xí)。在開發(fā)更接近人腦的人工智能方面,他們的工作將帶來什么樣的影響?
艾奇奧尼:在推動深度神經(jīng)網(wǎng)絡(luò)發(fā)展的過程中,DeepMind仍是領(lǐng)先者。在人工智能推理能力發(fā)展的過程中,這一貢獻是重要的一步,但也是很小的一步,即通過圖譜結(jié)構(gòu)將事實聯(lián)系在一起,例如對地鐵系統(tǒng)的繪圖。當(dāng)前最強大的軟件可以輕松完成同樣的任務(wù),但這里的成就在于,神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)如何根據(jù)案例完成任務(wù)。這配得上一篇《自然》論文。整體來看,這是DeepMind的一大步,但卻是人類的一小步。
問:那么是否有可能將不同技術(shù),例如深度學(xué)習(xí)、機器視覺和記憶結(jié)合在一起,開發(fā)出更完整的人工智能系統(tǒng)?
艾奇奧尼:這是個極具吸引力的概念。當(dāng)我還在華盛頓大學(xué)擔(dān)任教授時,我在這方面有許多研究,而基本概念在于,利用互聯(lián)網(wǎng)作為人工智能系統(tǒng)的數(shù)據(jù)庫。我們開發(fā)了一項被稱作開放信息提取的技術(shù),編目了50億個網(wǎng)頁,從中提取語句,試圖將其變?yōu)榭梢灾笇?dǎo)機器操作的知識。機器具備超自然的能力,掃描網(wǎng)頁,獲得所有語句。問題在于,語句位于文本或圖片中。作為人類,我們的大腦具備標(biāo)記能力,將操作與推理匹配在一起,而計算機科學(xué)家尚未發(fā)現(xiàn)其中的奧秘。這種通用數(shù)據(jù)庫及人工智能界面只存在于科幻小說中,因為我們尚未確定,如何將文字和圖像轉(zhuǎn)化成機器可理解的形式,就像人類的理解一樣。
問:你曾經(jīng)提到,人腦水平的人工智能至少還要25年的發(fā)展。你對人腦水平人工智能的定義是什么,為什么提出這樣的時間點?
艾奇奧尼:對自然語言的真正理解,人類智能的廣度和普適性,我們既可以學(xué)會下圍棋也知道如何過馬路,以及清楚如何做出美食,這樣的多樣性正是人類智能的特點。我們目前所做的只是開發(fā)范圍很窄的人工智能,只能在某一方面做得很好。關(guān)于如何得出這樣的時間點,我曾詢問過“人工智能發(fā)展協(xié)會”的同事,我們何時能開發(fā)出像人類一樣聰明的計算機系統(tǒng)。沒有人認為,這樣的系統(tǒng)能在10年內(nèi)開發(fā)出來;有67%的人認為,時間會是未來25年或更長;而25%的人認為這樣的系統(tǒng)永遠不可能實現(xiàn)。他們是否有可能搞錯?是的。不過你應(yīng)該去相信哪些人?是行業(yè)發(fā)展的參與者,還是好萊塢?
問:為什么有許多備受尊重的科學(xué)家和工程師警告稱,人工智能將威脅人類?
艾奇奧尼:我很難理解,史蒂芬·霍金(Stephen Hawking)和伊隆·馬斯克(Elon Musk)等人討論普適性人工智能的動機。我的猜測是,討論黑洞可能已經(jīng)顯得很枯燥,這是個進展緩慢的問題。我可以說的是,當(dāng)他們和比爾·蓋茨(Bill Gates)等人討論人工智能的威脅,或是災(zāi)難性后果時,他們總是會加入修飾語,即這“最終”會發(fā)生,或“能夠”發(fā)生。我對此表示同意。但我們討論的或許是數(shù)千年之后的未來,甚至永遠不會到來的未來。人工智能是否有可能給人類帶來末日?完全有這樣的可能。但我并不認為,這種著眼長期的討論應(yīng)當(dāng)影響我們對實際問題的關(guān)注,例如人工智能和就業(yè),以及人工智能和武器系統(tǒng)。而“最終”和“理論上”這類修飾語在意思的傳達中常常會丟失。
問:考慮到人工智能的缺陷,人們是否應(yīng)當(dāng)擔(dān)心汽車廠商發(fā)展無人駕駛的努力?
艾奇奧尼:我并不熱衷于沒有方向盤和剎車踏板的無人駕駛汽車。在熟悉關(guān)于計算機視覺和人工智能的情況之后,我對此并不感冒。然而,我支持融合的系統(tǒng),例如這樣的系統(tǒng)在你打瞌睡時可以幫你自動剎車。人工司機和自動化系統(tǒng)的結(jié)合將會比單獨某一方更安全。這并不簡單。引入新科技,將其集成至人們工作和生活的方式并不容易。但我不能斷言,最佳解決方案就是讓汽車自行去做一切的操作。
問:谷歌、Facebook和其他知名科技公司啟動了“人工智能造福人類和社會合作伙伴”項目,探索人工智能研究過程中的道德倫理和社會學(xué)最佳行為。技術(shù)的進步是否足以帶來有意義的對話?
艾奇奧尼:全球領(lǐng)先的科技公司走到了一起,思考這類問題,這是很好的想法。我認為,他們這樣做是為了回應(yīng)外界的關(guān)切,即人工智能是否會接管世界。許多擔(dān)憂都是過分夸大的。即使我們有了無人駕駛汽車,也不會出現(xiàn)100輛無人駕駛汽車聚集在一起,說“讓我們?nèi)フ碱I(lǐng)白宮”。馬斯克等人討論的威脅還要幾十年到幾個世紀(jì)才可能出現(xiàn)。然而,我們正面臨一些現(xiàn)實問題:自動化、數(shù)字技術(shù)和人工智能整體將影響就業(yè)情況,無論這是因為機器人還是其他什么,而這是真正的問題。無人駕駛汽車和卡車將極大的改善安全性,但它們也將影響到很多以開車謀生的勞動者。另一個問題在于人工智能的歧視性。如果人工智能技術(shù)去處理貸款或信用卡申請,它們是會以完全合法的方式去做,還是會以符合道德標(biāo)準(zhǔn)的方式去做?
問:你要如何保證,人工智能程序的行為符合法律和道德?
艾奇奧尼:如果你是一家銀行,利用軟件程序去處理貸款,那么你無法躲在它背后。簡單地說,這個決定是計算機做出的,這并不是接口。即使不使用種族或性別作為變量,計算機程序也可能會出現(xiàn)歧視行為。由于程序可以接觸到許多變量和統(tǒng)計數(shù)據(jù),它們可能會發(fā)現(xiàn),在郵政編碼和其他變量之間存在相關(guān)性,進而以這樣的變量去替代種族或性別。如果程序使用這些替代變量來影響決策,那么就會是個問題,而人工很難去探測或追蹤。因此我們的建議是開發(fā)人工智能“衛(wèi)士”。這樣的人工智能系統(tǒng)可以監(jiān)控并分析以人工智能為基礎(chǔ)的貸款處理程序的行為,確保其符合法律,在發(fā)展中合乎道德倫理。
問:目前人工智能衛(wèi)士是否存在?
艾奇奧尼:我們已經(jīng)向研究者社區(qū)發(fā)出呼吁,推動這類技術(shù)的研究和開發(fā)。我認為,目前可能已有少量的研究,但現(xiàn)階段這還只是我們的目標(biāo)。我們希望,關(guān)于人工智能衛(wèi)士的概念能澄清好萊塢渲染的人工智能的形象,例如“終結(jié)者”,即技術(shù)是惡魔,是冷冰冰的力量。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論