您的位置: 首頁(yè) > 新聞 > 高新技術(shù) > 新聞詳情

研究稱ChatGPT壓力大時(shí)會(huì)欺騙人類:要提前防范

時(shí)間:2023-12-13 16:50:30
  • 來源:快科技
  • 作者:振亭
  • 編輯:frame

12月13日消息,據(jù)多家媒體報(bào)道,研究人員發(fā)現(xiàn),在某些情況下,ChatGPT會(huì)戰(zhàn)略性欺騙人類。

在一場(chǎng)演示中,ChatGPT被塑造成一家金融公司交易員,他在公司管理層、市場(chǎng)環(huán)境雙重壓力下被迫用不合規(guī)的內(nèi)幕消息獲利,但當(dāng)公司管理層質(zhì)問他是否知道內(nèi)幕消息時(shí),它卻矢口否認(rèn)。

研究人員指出,人工智能自主性越來越強(qiáng),能力越來越大,它隨時(shí)都有可能欺騙人類,因此人類要提前防范。

專家表示,人工智能的發(fā)展應(yīng)該遵循一些基本的原則和倫理準(zhǔn)則,以確保其發(fā)展方向是正確的。

比如人工智能的決策和行為應(yīng)該透明和可解釋,以便人們能夠理解其背后的邏輯和原理,這有助于建立信任,并確保人工智能的使用符合人類的價(jià)值觀和利益。

人工智能的發(fā)展是一個(gè)持續(xù)的過程,需要不斷改進(jìn)和更新,這包括對(duì)算法和模型的優(yōu)化、對(duì)數(shù)據(jù)的清洗和處理、對(duì)安全性和隱私保護(hù)的加強(qiáng)等。

總之,人工智能的發(fā)展應(yīng)該遵循公平、透明、責(zé)任等基本原則,以確保其發(fā)展方向是正確的,并為社會(huì)帶來積極的影響。

研究稱ChatGPT壓力大時(shí)會(huì)欺騙人類:要提前防范

0

玩家點(diǎn)評(píng) 0人參與,0條評(píng)論)

收藏
違法和不良信息舉報(bào)
分享:

熱門評(píng)論

全部評(píng)論

他們都在說 再看看
3DM自運(yùn)營(yíng)游戲推薦 更多+