多款主流GPU被發(fā)現(xiàn)漏洞 或泄露AI大模型數(shù)據(jù)
- 來源:互聯(lián)網(wǎng)
- 作者:愛集微
- 編輯:陶笛
日前據(jù)報道,安全研究人員Trail of Bits發(fā)現(xiàn)了一個漏洞,有可能從GPU內(nèi)存中竊取“關鍵數(shù)據(jù)”,英偉達、蘋果、AMD和高通等多個型號的消費性GPU受到影響。
該漏洞被命名為“LeftoverLocals”,這個漏洞不只是針對消費者應用程序,而是通過侵入大語言模型(LLM)和機器學習(ML)模型中使用的GPU來完成任務。由于模型訓練涉及敏感數(shù)據(jù)使用,因此提取數(shù)據(jù)更危險。
卡內(nèi)基梅隆大學(Carnegie Mellon University)的專家正在對LeftoverLocals進行跟蹤,據(jù)稱該信息已經(jīng)被受其影響的主要GPU供應商共享,其中包括英偉達、蘋果、AMD、Arm、英特爾、高通和Imagination等。
在AMD Radeon RX 7900 XT上運行70億參數(shù)量模型時,LeftoverLocals漏洞在GPU每一次調(diào)用數(shù)據(jù)時可能會泄漏約5.5MB數(shù)據(jù),在llama.cpp上運行7B模型時,每次LLM查詢總共會泄漏約181MB數(shù)據(jù)。這些信息足以高精度地重建大語言模型響應。
LeftoverLocals相當依賴GPU如何隔離其內(nèi)存,而這與CPU框架不同,因此通過可編程接口獲得對GPU共享訪問權(quán)限的攻擊者可以竊取GPU內(nèi)的內(nèi)存數(shù)據(jù),這將帶來多種安全后果。
對于普通消費者來說,LeftoverLocals可能不值得擔心,但對于云端運算或推理等產(chǎn)業(yè)的相關人員來說,會使LLM和ML框架的安全性存在疑慮。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論