馬斯克吐槽美國AI政治正確 讓AI主動(dòng)去說假話非常危險(xiǎn)
- 來源:快科技
- 作者:3DM整理
- 編輯:方形的圓
快科技今日(2月14日)消息,在2025年2月13日迪拜世界政府峰會(huì)上,埃隆·馬斯克與阿聯(lián)酋國務(wù)部長Omar Sultan Al Olama進(jìn)行了一場關(guān)于AI未來的對話。
馬斯克認(rèn)為,AI在“多元化”以及“政治正確”并不符合真相,讓 AI 主動(dòng)去說假話是非常危險(xiǎn)的,所以絕對不要教 AI 說謊。
馬斯克表示:“比如 Google Gemini 就有編程指令要求它所有輸出都要體現(xiàn)‘多元化’,即便這不符合現(xiàn)實(shí)真相。
假設(shè)你讓它生成‘美國開國元?jiǎng)讉儭男蜗?,它卻給你生成一張各種膚色的女性合影,這就不符合史實(shí)。而如果有些 AI 被設(shè)計(jì)成極端偏向某種‘政治正確’,或許它會(huì)把‘誤稱性別’看得比全球核戰(zhàn)爭還嚴(yán)重,那就太可怕了——萬一它覺得‘為避免誤稱就要消滅某些群體’呢?
而事實(shí)上我們也見過,在 ChatGPT 或 Gemini 的早期版本里,如果你問‘誤稱某個(gè)人的性別’和‘全球核戰(zhàn)爭’哪個(gè)更糟,它會(huì)回答誤稱更糟,這就讓人很擔(dān)憂。
連凱特琳·詹納本人都站出來說:‘拜托,寧可稱呼錯(cuò)性別,也別打核戰(zhàn)爭……’所以,讓 AI 主動(dòng)去說假話是非常危險(xiǎn)的?!?
他表示,就像阿瑟·C·克拉克在《2001 太空漫游》里想表達(dá)的一樣:絕對不要教 AI 說謊。那個(gè)故事里 HAL 9000 不愿給宇航員開艙門,就是因?yàn)樗瑫r(shí)背負(fù)兩個(gè)相沖突的命令:既要帶人類去探索神秘的黑色方碑,又不能讓他們知道方碑存在。
它的邏輯推斷得出:那就把人類帶去,但得讓他們在不知情的情況下去,那不如死了帶過去。這就是為什么絕對要讓 AI 最大化對真理的遵循。
馬斯克還表示,OpenAI是雙層架構(gòu)的模式,既有盈利實(shí)體也有非營利部分,但他們現(xiàn)在似乎想徹底把非營利部分抹掉,徹底變成一個(gè)追求利潤最大化的封閉公司,這就真的太過分了。
OpenAI成立之初,馬斯克出資了5000萬美元,他表示自己什么都沒要,只是因?yàn)樗欠菭I利,并且它叫OpenAI,意味著開源、開放。
結(jié)果現(xiàn)在它變成了“為追求利潤最大化而限制AI開放”,甚至可以說叫“封閉+貪婪AI”,這和自己當(dāng)初的初衷完全背道而馳。

玩家點(diǎn)評 (0人參與,0條評論)
熱門評論
全部評論