專家也不如AI了:GPT-4o道德推理能力已比專家更強(qiáng)
- 來源:快科技
- 作者:黑白
- 編輯:frame
6月24日消息,最新研究顯示,人工智能在道德推理方面的能力可能已經(jīng)超越了人類專家。
美國北卡羅萊納大學(xué)教堂山分校和艾倫AI研究所的研究人員開展的兩項(xiàng)研究中,OpenAI的新型聊天機(jī)器人GPT-4o在提供道德建議方面,被認(rèn)為質(zhì)量優(yōu)于公認(rèn)的道德專家。
在第一項(xiàng)研究中,501名美國成年人對(duì)GPT-3.5-turbo模型與人類參與者提供的道德解釋進(jìn)行了比較,結(jié)果顯示,GPT的解釋被認(rèn)為更符合道德標(biāo)準(zhǔn)、更值得信賴,也更周到。
第二項(xiàng)研究中,GPT-4o生成的建議與“倫理學(xué)家”專欄中著名倫理學(xué)家Kwame Anthony Appiah的建議進(jìn)行了對(duì)比。
900名參與者對(duì)50個(gè)“倫理困境”的建議進(jìn)行了評(píng)分,GPT-4o在幾乎所有方面都勝過了人類專家。
AI生成的建議被認(rèn)為在道德上更正確、更值得信賴、更周到,并且在準(zhǔn)確性方面也更勝一籌。
不過這項(xiàng)研究僅針對(duì)美國參與者進(jìn)行,未來還需進(jìn)一步研究以探討不同文化背景下人們對(duì)AI生成的道德推理的接受度。
盡管如此,這一發(fā)現(xiàn)已經(jīng)引發(fā)了關(guān)于AI在道德和倫理決策中角色的重要討論,預(yù)示著人工智能在這一領(lǐng)域的應(yīng)用潛力。
研究人員提醒,盡管AI在道德推理方面表現(xiàn)出色,但仍需謹(jǐn)慎對(duì)待其建議,特別是在缺乏人類監(jiān)督的情況下。

玩家點(diǎn)評(píng) (0人參與,0條評(píng)論)
熱門評(píng)論
全部評(píng)論