AI并非全能 ChatGPT給出的癌癥治療方案充滿錯誤
- 來源:互聯(lián)網(wǎng)
- 作者:IT之家
- 編輯:陶笛
如今爆火的AI似乎被夸大了功用,OpenAI 的聊天機器人 ChatGPT 雖然風靡全球,但一項新的研究表明,它在一個關(guān)鍵領(lǐng)域還遠不能取代人類專家。近日美國哈佛醫(yī)學院附屬的布里格姆婦女醫(yī)院的研究人員發(fā)現(xiàn),ChatGPT 生成的癌癥治療方案充滿了錯誤。
這項研究發(fā)表在《美國醫(yī)學會腫瘤學雜志》上,研究人員向 ChatGPT 提出了各種癌癥病例的治療方案,結(jié)果發(fā)現(xiàn)三分之一的回答中包含了不正確的信息。研究還指出,ChatGPT 傾向于將正確和錯誤的信息混合在一起,因此很難識別哪些信息是準確的。
該研究的合著者 Danielle Bitterman 博士稱,他們“對錯誤信息與正確信息混合在一起的程度感到震驚,這使得即使是專家也很難發(fā)現(xiàn)錯誤?!彼a充說,“大型語言模型經(jīng)過訓練可以提供聽起來非常有說服力的回答,但它們并不是為了提供準確的醫(yī)療建議而設(shè)計的。錯誤率和回答的不穩(wěn)定性是臨床領(lǐng)域需要解決的關(guān)鍵安全問題?!?
ChatGPT 于 2022 年 11 月推出后一夜成名,兩個月后就達到了 1 億活躍用戶。盡管 ChatGPT 取得了成功,但生成型人工智能模型仍然容易出現(xiàn)“幻覺”,即自信地給出誤導性或完全錯誤的信息。
將人工智能融入醫(yī)療領(lǐng)域的努力已經(jīng)在進行中,主要是為了簡化管理任務(wù)。本月早些時候,一項重大研究發(fā)現(xiàn),使用人工智能篩查乳腺癌是安全的,并且可能將放射科醫(yī)生的工作量減少近一半。哈佛大學的一位計算機科學家最近發(fā)現(xiàn),最新版本的模型 GPT-4 可以輕松通過美國醫(yī)學執(zhí)照考試,并暗示它比一些醫(yī)生具有更好的臨床判斷力。
盡管如此,由于 ChatGPT 等生成型模型存在準確性問題,它們不太可能在近期取代醫(yī)生。《美國醫(yī)學會腫瘤學雜志》上的研究發(fā)現(xiàn),ChatGPT 的回答中有 12.5% 是“幻覺”,并且在被問及晚期疾病的局部治療或免疫療法時,最有可能給出錯誤的信息。
OpenAI 已經(jīng)承認 ChatGPT 可能不可靠,該公司的使用條款警告說,他們的模型并非旨在提供醫(yī)療信息,也不應(yīng)該用于“為嚴重的醫(yī)療狀況提供診斷或治療服務(wù)”。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論