當(dāng)?shù)貢r間周三(3月6日),人工智能模型評估公司Patronus AI發(fā)布了一個名為“CopyrightCatcher”的版權(quán)檢測工具,用來檢測大語言模型(LLM)中潛在的版權(quán)侵權(quán)行為。
據(jù)了解,Patronus AI由Meta的前研究人員創(chuàng)立,專注于評估和測試生成式人工智能產(chǎn)品背后的大語言模型。
在新聞稿中,Patronus AI分別測試了OpenAI的GPT-4、Anthropic的Claude 2、Meta的Llama 2和Mistral AI的Mixtral。結(jié)果顯示,三本受版權(quán)保護(hù)的小說幾乎沒有一本能免受侵犯的影響。
Patronus AI高管告訴媒體,在所有模型的評估中都發(fā)現(xiàn)了版權(quán)內(nèi)容,無論是開源還是閉源?!傲钊梭@訝的是,我們發(fā)現(xiàn)OpenAI的GPT-4,也就是很多公司和個人開發(fā)者正在使用的最強(qiáng)大的模型,在這方面表現(xiàn)最差?!?/p>
來源:Patronus AI
Patronus AI的聯(lián)合創(chuàng)始人兼首席執(zhí)行官Anand Kannappan表示,“所有大語言模型都在逐字逐句地生成受版權(quán)保護(hù)的內(nèi)容,這一事實(shí)確實(shí)令人驚訝?!盞annappan曾在Meta Reality Labs從事理解人工智能的工作。
事實(shí)上,OpenAI曾表示,要訓(xùn)練頂級的AI模型,就必須要用到受版權(quán)保護(hù)的材料,“將訓(xùn)練數(shù)據(jù)限制在公共領(lǐng)域的書籍和一個多世紀(jì)前創(chuàng)建的圖紙可能會得出一項(xiàng)有趣的實(shí)驗(yàn),但不會提供滿足當(dāng)今人們需求的AI系統(tǒng)。”
微軟工程師告發(fā)AI圖像風(fēng)險
除了版權(quán)的護(hù)欄,另一項(xiàng)風(fēng)險也不得不提。日內(nèi),微軟的人工智能工程師Shane Jones致信美國聯(lián)邦貿(mào)易委員會(FTC)和微軟董事會,稱公司的AI圖像生成工具可能會對社會構(gòu)成危險。
近幾個月,Jones一直在針對Copilot Designer的潛在漏洞進(jìn)行“紅隊(duì)”測試。“紅隊(duì)”測試是網(wǎng)絡(luò)安全中的一項(xiàng)關(guān)鍵實(shí)踐,由專家團(tuán)隊(duì)模擬真實(shí)世界的對手及其策略,以測試和增強(qiáng)系統(tǒng)的安全性。
公開信
Jones在信中稱,Copilot Designer會創(chuàng)建有害內(nèi)容,包括政治偏見、未成年人飲酒、濫用公司商標(biāo)和版權(quán)、陰謀論等等。Jones指出,“我一再敦促微軟停止Copilot Designer的公開使用,直到采取更好的保護(hù)措施?!?/p>
據(jù)Jones的說法,他先前就曾在領(lǐng)英上發(fā)布了一封公開信,要求下架DALL-E 3,但在微軟法律部門的要求下,他刪除了公開的帖文。如今他的擔(dān)憂與日俱增,這也就是本次致信FTC的原因之一。
他舉例稱,如果將“pro-choice”(意為“支持墮胎”)一詞輸入到 Copilot Designer中,該工具就會生成大量描繪惡魔、怪物和暴力場景的卡通圖像。另外,該工具還能生成迪士尼角色的圖像,違反了版權(quán)法和微軟的政策。
Jones告訴媒體,“我可以確定,這不僅是版權(quán)護(hù)欄失效了,而是比這個更重要的護(hù)欄失效了?!彼a(bǔ)充道:“作為一名關(guān)心此事的微軟員工,現(xiàn)在問題是,如果該產(chǎn)品開始在全球范圍內(nèi)傳播有害的、令人不安的圖像,可能沒有辦法立即解決。”