9月14日,OpenAI承認,其最新AI推理模型o1“顯著”增加了AI被濫用于制造生物武器的風險。
OpenAI的系統(tǒng)卡是一種解釋AI如何運作的工具。該工具表示,新模型對化學武器、生物武器、放射性武器和核武器(CBRN)相關(guān)問題的風險為“中等”,這是OpenAI有史以來給出的最高風險。OpenAI表示,這意味著該模型“顯著提高了”專家制造生物武器的能力。
專家稱,如果具備更先進功能的AI軟件落在危險分子手中,這會帶來更高的濫用風險。例如,o1模型就具備了逐步推理能力。
OpenAI首席技術(shù)官米拉·穆拉蒂(Mira Murati)向英國《金融時報》表示,由于o1模型具備了先進功能,該公司在向公眾推出它時特別“謹慎”。她補充說,這個模型已經(jīng)被所謂的“紅隊”(各個科學領(lǐng)域的專家)測試過。穆拉蒂表示,o1模型在整體安全指標上的表現(xiàn)遠遠好于之前的模型。
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。