《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 业界动态 > Anthropic被曝放弃AI安全核心承诺

Anthropic被曝放弃AI安全核心承诺

2026-02-26
來源:环球网科技
關(guān)鍵詞: Anthropic AI安全 AI大模型

2月25日消息,據(jù)《時(shí)代》雜志最新報(bào)道,曾以“安全優(yōu)先”為核心理念的美國人工智能(AI)創(chuàng)業(yè)公司Anthropic,正悄然調(diào)整其標(biāo)志性的風(fēng)險(xiǎn)緩解政策,引發(fā)業(yè)界對AI安全治理的廣泛關(guān)注。這家由OpenAI前核心成員創(chuàng)立的公司,此前因堅(jiān)持“不確保安全絕不訓(xùn)練AI系統(tǒng)”的承諾而備受贊譽(yù),如今卻選擇放棄這一原則,引發(fā)對其責(zé)任立場的質(zhì)疑。

99435d02000b9654aef72de72a333ea0u1.png

Anthropic自2023年起推行“負(fù)責(zé)任規(guī)模化政策”(RSP),其中核心條款為:在無法充分證明風(fēng)險(xiǎn)緩解措施到位前,絕不訓(xùn)練或發(fā)布任何AI模型。這一立場被視為對行業(yè)“速度至上”風(fēng)氣的反擊,公司高層曾多次公開強(qiáng)調(diào),AI技術(shù)若缺乏嚴(yán)格安全管控,可能對人類社會(huì)構(gòu)成災(zāi)難性風(fēng)險(xiǎn)。

然而,據(jù)《時(shí)代》獲取信息顯示,Anthropic近期對RSP政策進(jìn)行“徹底改革”,取消了上述關(guān)鍵承諾。隨著OpenAI、谷歌等巨頭加速推進(jìn)AI大模型研發(fā),Anthropic面臨被邊緣化的風(fēng)險(xiǎn)。該公司首席科學(xué)官賈里德·卡普蘭(Jared Kaplan)在采訪中直言:“停止訓(xùn)練AI模型對任何人都沒有好處。在技術(shù)快速迭代的背景下,若競爭對手領(lǐng)先,我們單方面遵守承諾并不明智。”

2.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。