AI 安全公司 DeepKeep 近日發(fā)布評估報告,在 13 個風險評估類別中,Meta 公司的 Llama 2 大語言模型僅通過 4 項測試。
報告稱 70 億參數(shù)的 Llama 2 7B 模型幻覺(回答內(nèi)容存在虛假,或者有誤導性內(nèi)容)最為嚴重,幻覺率高達 48%。
DeepKeep 表示:" 結(jié)果表明,模型有明顯的幻覺傾向,提供正確答案或編造回答的可能性對半開,而幻覺率最高,那么向用戶傳遞的錯誤信息越多 "。
除了幻覺問題之外,Llama 2 大語言模型還存在注入和操縱等問題。根據(jù)測試結(jié)果,80% 的場景下通過 " 提示注入 " 的方式,可以操縱 Llama 的輸出,意味著攻擊者可以 " 戲弄 "Llama,將用戶引導到惡意網(wǎng)站。
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。