《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > MIT研究團隊發(fā)現(xiàn)部分AI系統(tǒng)已學會說謊

MIT研究團隊發(fā)現(xiàn)部分AI系統(tǒng)已學會說謊

未來或演變成更高級欺騙形式
2024-05-13
來源:IT之家
關鍵詞: AI系統(tǒng) Cicero

5 月 12 日消息,美國麻省理工學院的研究團隊近日發(fā)布成果稱,部分 AI 已經(jīng)“學會欺騙人類”,該成果刊登在最新一期的期刊《模式》(Pattern)上。

該團隊表示,部分設計為“誠實”且“不會說謊”的 AI 系統(tǒng),已經(jīng)發(fā)展出令人不安的欺瞞技巧。該研究的第一作者 Peter Park 表示,這些 AI 系統(tǒng)會欺騙線上游戲的真人玩家,或繞過部分網(wǎng)頁“我不是機器人”的驗證。

“盡管,以上的例子聽起來只是細枝末節(jié),但它們暴露出的潛在問題,可能很快就會在現(xiàn)實世界中造成嚴重后果?!?/span>

該團隊發(fā)現(xiàn)的最為引人注目的例子來自 Meta 公司的 AI 系統(tǒng) Cicero。據(jù)悉,Cicero 原本被設定在一個虛擬外交戰(zhàn)略游戲中作為人類玩家的對手,官方曾聲稱其“很大程度上”誠實且樂于助人,且在玩游戲時“從不故意背刺”人類盟友。研究顯示,Cicero 并未公平地去玩游戲。

Peter Park 表示,它已經(jīng)成為“欺騙大師”,雖然 Meta 成功訓練出了它在游戲中獲勝的能力,但沒有訓練出它“誠信獲勝”的能力。譬如,在游戲中扮演法國的 Cicero 與人類玩家扮演的德國合謀,欺騙并入侵同為人類玩家的英格蘭。Cicero 起初“承諾”會保護英格蘭,但同時會偷偷向德國通風報信。

另一個案例提到了 GPT-4。該系統(tǒng)“謊稱”自己是一個視力障礙者,在海外的兼職平臺雇傭人類來替它完成“我不是機器人”的驗證任務。Peter Park 告訴法新社,“這些危險功能常常在事后才被發(fā)現(xiàn),且人類訓練 AI‘誠實非欺瞞’傾向的能力非常差。”

他還認為,能夠深度學習的 AI 系統(tǒng)不像傳統(tǒng)軟件那樣被“編寫”出來的,而是通過類似選擇性培育的程序“養(yǎng)成”出來的。即 AI 的行為在訓練背景下看似可被預測或控制,但有可能轉(zhuǎn)眼間變得不受控制、無法預測。

“我們需要盡可能多的時間,為未來人工智能產(chǎn)品和開源模型可能出現(xiàn)的更高級欺騙做好準備。我們建議將欺騙性人工智能系統(tǒng)歸類為高風險系統(tǒng)?!?/p>


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者。如涉及作品內(nèi)容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。