2月25日消息,據(jù)《時(shí)代》雜志最新報(bào)道,曾以“安全優(yōu)先”為核心理念的美國人工智能(AI)創(chuàng)業(yè)公司Anthropic,正悄然調(diào)整其標(biāo)志性的風(fēng)險(xiǎn)緩解政策,引發(fā)業(yè)界對AI安全治理的廣泛關(guān)注。這家由OpenAI前核心成員創(chuàng)立的公司,此前因堅(jiān)持“不確保安全絕不訓(xùn)練AI系統(tǒng)”的承諾而備受贊譽(yù),如今卻選擇放棄這一原則,引發(fā)對其責(zé)任立場的質(zhì)疑。

Anthropic自2023年起推行“負(fù)責(zé)任規(guī)模化政策”(RSP),其中核心條款為:在無法充分證明風(fēng)險(xiǎn)緩解措施到位前,絕不訓(xùn)練或發(fā)布任何AI模型。這一立場被視為對行業(yè)“速度至上”風(fēng)氣的反擊,公司高層曾多次公開強(qiáng)調(diào),AI技術(shù)若缺乏嚴(yán)格安全管控,可能對人類社會(huì)構(gòu)成災(zāi)難性風(fēng)險(xiǎn)。
然而,據(jù)《時(shí)代》獲取信息顯示,Anthropic近期對RSP政策進(jìn)行“徹底改革”,取消了上述關(guān)鍵承諾。隨著OpenAI、谷歌等巨頭加速推進(jìn)AI大模型研發(fā),Anthropic面臨被邊緣化的風(fēng)險(xiǎn)。該公司首席科學(xué)官賈里德·卡普蘭(Jared Kaplan)在采訪中直言:“停止訓(xùn)練AI模型對任何人都沒有好處。在技術(shù)快速迭代的背景下,若競爭對手領(lǐng)先,我們單方面遵守承諾并不明智。”

