8月1日消息,據(jù)外電報道,Sam Altman 在推文中透露,OpenAI 將向美國人工智能安全研究所提供其下一代模型的早期使用權,作為其安全工作的一部分。
顯然,該公司一直在與該聯(lián)盟合作推動人工智能評估的科學發(fā)展。美國國家標準與技術研究所 (NIST) 已于今年早些時候正式成立人工智能安全研究所,盡管副總統(tǒng)卡馬拉·哈里斯 (Kamala Harris)早在 2023 年英國人工智能安全峰會上就宣布了這一消息。
根據(jù)NIST 對該聯(lián)盟的描述,它旨在制定基于科學和經驗支持的人工智能測量和政策指南和標準,為全球人工智能安全奠定基礎。
該公司與 DeepMind去年同樣承諾與英國政府共享 AI 模型。
正如TechCrunch指出的那樣,人們越來越擔心 OpenAI 在尋求開發(fā)更強大的 AI 模型時,安全性不再是首要任務。
有人猜測,董事會出于安全方面的考慮,決定將 Sam Altman 踢出公司——他很快就恢復了原職。然而,該公司當時在一份內部備忘錄中告訴員工,這是因為溝通中斷。
今年 5 月,OpenAI 承認解散了其創(chuàng)建的超級對齊團隊,以確保在公司推進生成人工智能工作的同時,人類的安全。
在此之前,OpenAI 聯(lián)合創(chuàng)始人兼首席科學家 Ilya Sutskever離開了公司,他是該團隊的領導者之一。同樣是該團隊領導者之一的 Jan Leike 也辭職了。
他在一系列推文中表示,他長期以來一直與 OpenAI 領導層在公司的核心優(yōu)先事項上意見不一,并且安全文化和流程已經讓位于閃亮的產品。
OpenAI在 5 月底成立了一個新的安全小組,但由包括 Altman 在內的董事會成員領導,引發(fā)了人們對自我監(jiān)督的擔憂。