[幣圈新韭菜]Masterkey- AI安全限制算法
據(jù) IT 之家 12 月 29 日報道,新加坡南洋理工大學(NTU)的計算機科學專家近日研發(fā)了新的方法,可以使用聊天機器人來入侵聊天機器人。該科研團隊訓練了一個 AI 聊天機器人,可以繞過其它 AI 聊天的安全限制。團隊研發(fā)了名為 Masterkey(LLM)的算法,逆向設計了 LLM 檢測和防御惡意查詢的方式,然后教會 LLM 自動學習并通過相關提示詞,可以繞過其他 LLM 的安全性。團隊通過這種方式,可以創(chuàng)建一個黑客 LLM,它可以自動適應新條件,并在開發(fā)人員對其 LLM 進行更正后創(chuàng)建新的黑客請求。研究團隊成功利用這種方式入侵 AI 模型之后,已經(jīng)通知服務提供商相關問題。 本文鏈接:https://www.aixinzhijie.com/article/6842354 轉載請注明文章出處
版權聲明:本站所有文章皆是來自互聯(lián)網(wǎng),如內(nèi)容侵權可以聯(lián)系我們刪除!