最近,由美國人工智能研究室OpenAI開發(fā)的全新“聊天機(jī)器人”ChatGPT火了。作為一款人工智能語言模型,它不僅能和人展開互動(dòng),還可以寫文章、制定方案、創(chuàng)作詩歌,甚至編寫代碼、檢查漏洞樣樣精通,上線僅兩個(gè)月全球活躍用戶破億。
對此,有人直呼“太好用了,你要什么它就給什么”,也有人擔(dān)憂“一些工作將被它取代”。
ChatGPT的問世掀起了新一輪人工智能浪潮,但其使用過程中可能涉及的法律問題不容忽視,記者對此進(jìn)行了調(diào)查采訪。
ChatGPT火了,在國內(nèi)連續(xù)多日沖上熱搜榜,一時(shí)與ChatGPT相關(guān)的各種信息遍布網(wǎng)絡(luò)。
ChatGPT全稱“Chat Generative Pre-trained Transformer”,按照其自我介紹,它是一個(gè)由OpenAI訓(xùn)練的大型語言模型,被設(shè)計(jì)用來回答各種問題并為人們提供幫助。
人工智能、人機(jī)交互、自動(dòng)問答……與ChatGPT相關(guān)聯(lián)的各種“高大上”的形容詞讓不少人感到好奇:ChatGPT到底能干什么?是否真的像一些人擔(dān)憂的那樣,可以取代文本創(chuàng)作等類型的工作?
《法治日報(bào)》記者近日采訪發(fā)現(xiàn),ChatGPT的火爆背后暗藏法律風(fēng)險(xiǎn)隱患。人工智能在給人們的生活增添樂趣、提供便利的同時(shí),其信息真?zhèn)?、知識(shí)產(chǎn)權(quán)等法律風(fēng)險(xiǎn)也愈發(fā)受到關(guān)注。另一方面,不少人盯上了其熱度想“搭便車”牟利,出現(xiàn)了大批“山寨”產(chǎn)品和賬號(hào)轉(zhuǎn)賣行為。
存在信息泄露風(fēng)險(xiǎn)
可能侵犯知識(shí)產(chǎn)權(quán)
ChatGPT爆火后,很多博主拍攝了測評視頻。不少人給出評價(jià)稱,面對一些提問,ChatGPT反應(yīng)速度、準(zhǔn)確性較高,表現(xiàn)甚至優(yōu)于一些搜索引擎。但ChatGPT的回答通常是籠統(tǒng)的、整合性的回答,而不是具有個(gè)性色彩的、創(chuàng)新性的回答。
公開資料顯示,ChatGPT可以總結(jié)研究論文、回答問題、生成可用的計(jì)算機(jī)代碼,甚至快速通過美國醫(yī)學(xué)執(zhí)照考試、沃頓商學(xué)院的MBA期末考試、司法考試。一些醫(yī)學(xué)論文預(yù)印本和已發(fā)表的文章甚至正式賦予了ChatGPT作者身份。
但在受訪的法律人士看來,ChatGPT的強(qiáng)大功能也隱含著不少法律風(fēng)險(xiǎn)。
“ChatGPT對信息、數(shù)據(jù)來源無法進(jìn)行事實(shí)核查,可能存在個(gè)人數(shù)據(jù)與商業(yè)秘密泄露和提供虛假信息兩大隱患?!北本┯疲ㄉ虾#┞蓭熓聞?wù)所互聯(lián)網(wǎng)法律事務(wù)部主任謝連杰說。
謝連杰分析說,ChatGPT依托海量數(shù)據(jù)庫信息存在,其中包括大量的互聯(lián)網(wǎng)用戶自行輸入的信息,因此當(dāng)用戶輸入個(gè)人數(shù)據(jù)或商業(yè)秘密等信息時(shí),ChatGPT可能將其納入自身的語料庫而產(chǎn)生泄露的風(fēng)險(xiǎn)。雖然ChatGPT承諾刪除所有個(gè)人身份信息,但未說明刪除方式,在其不能對信息與數(shù)據(jù)來源進(jìn)行事實(shí)核查的情況下,這類信息仍然具有泄露風(fēng)險(xiǎn)。
其次,人工智能生成的信息并不總是準(zhǔn)確的,ChatGPT常常出現(xiàn)“一本正經(jīng)地胡說八道”的情況,需要一定的專業(yè)知識(shí)才能辨別真?zhèn)?;也可能有不法分子惡意“?xùn)練”人工智能,使其提供詐騙信息、釣魚網(wǎng)站等內(nèi)容,損害公民人身財(cái)產(chǎn)安全。
“對于這類隱患,平臺(tái)應(yīng)充分提示用戶其生成的內(nèi)容可能為虛假信息,且在其生成疑似違法信息時(shí)進(jìn)行攔截或提示用戶存在安全風(fēng)險(xiǎn)?!敝x連杰說。
泰和泰(重慶)律師事務(wù)所高級(jí)合伙人朱杰說,ChatGPT在建立語料庫、生成文本時(shí),如果使用并非公開的開源代碼、使用開源代碼商用未辦理許可證或者未按照許可證的要求實(shí)施的,可能會(huì)導(dǎo)致侵權(quán)。
他解釋說,這類人工智能主要是通過挖掘人類日常交流以及文本,進(jìn)而統(tǒng)計(jì)分析,因此,對于一些受著作權(quán)保護(hù)的文本、視頻、代碼等,如果沒有經(jīng)過權(quán)利主體的授權(quán),直接獲取復(fù)制到自己的數(shù)據(jù)庫中,并在此基礎(chǔ)上修改、拼湊,極可能侵害他人的著作權(quán)。
2019年,國際保護(hù)知識(shí)產(chǎn)權(quán)協(xié)會(huì)(AIPPI)發(fā)布《人工智能生成物的版權(quán)問題決議》,認(rèn)為人工智能生成物在其生成過程中有人類干預(yù),且該生成物符合受保護(hù)作品應(yīng)滿足的其他條件情況下,能夠獲得保護(hù),對于生成過程無人類干預(yù)的人工智能生成物無法獲得版權(quán)保護(hù)。
近日,多家國內(nèi)學(xué)術(shù)刊物針對ChatGPT發(fā)聲?!遏吣蠈W(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》發(fā)布關(guān)于使用人工智能寫作工具的說明提到,暫不接受任何大型語言模型工具(例如:ChatGPT)單獨(dú)或聯(lián)合署名的文章。在論文創(chuàng)作中使用過相關(guān)工具,需單獨(dú)提出,并在文章中詳細(xì)解釋如何使用以及論證作者自身的創(chuàng)作性。如有隱瞞使用情況,將對文章直接退稿或撤稿處理?!短旖驇煼洞髮W(xué)學(xué)報(bào)(基礎(chǔ)教育版)》發(fā)布聲明,建議作者在參考文獻(xiàn)、致謝等文字中對使用人工智能寫作工具(如:ChatGPT等)的情況予以說明。
朱杰認(rèn)為,ChatGPT生成的文本等內(nèi)容是基于大量數(shù)據(jù)的統(tǒng)計(jì)和應(yīng)用生成的,不具有自己的思想和創(chuàng)新,很難構(gòu)成著作權(quán)法保護(hù)的作品。
謝連杰提到,ChatGPT的文本數(shù)據(jù)挖掘技術(shù)可能導(dǎo)致其在他人享有著作權(quán)的作品中“借鑒”部分內(nèi)容。對于這部分內(nèi)容,若不能構(gòu)成我國著作權(quán)法所規(guī)定的“合理使用”的情形,則可能引發(fā)侵權(quán)糾紛。
借勢販賣租賃賬號(hào)
“搭便車”山寨頻出
ChatGPT走紅后,由于服務(wù)端對中國大陸的IP有限制,無法注冊使用,其賬號(hào)一時(shí)在國內(nèi)多個(gè)網(wǎng)購平臺(tái)、社交平臺(tái)上銷售火熱。在某電商平臺(tái)上售賣成品賬號(hào)的店鋪,一天之內(nèi)多達(dá)萬人付款,價(jià)格最低1.68元。
記者在一家名為“ChatGPT賬號(hào)供應(yīng)商”的店鋪購買了賬號(hào),商家隨后私聊發(fā)來賬號(hào)和密碼,并特別標(biāo)注輸入時(shí)需要復(fù)制粘貼,還附有登錄教程。登錄后,記者發(fā)現(xiàn)這是一個(gè)多人共享賬號(hào),左側(cè)聊天欄已經(jīng)存在許多聊天窗口,系統(tǒng)運(yùn)行十分緩慢,不一會(huì)記者就被提醒不能多人同時(shí)提問。
記者發(fā)現(xiàn),某電商平臺(tái)上,多數(shù)商家售賣的都是共享賬號(hào),而單人定制賬號(hào)或者代注冊賬號(hào)的價(jià)格往往更高。
近日,多個(gè)電商平臺(tái)對ChatGPT賬號(hào)銷售行為進(jìn)行了查禁,相關(guān)關(guān)鍵詞被屏蔽。記者先前賬號(hào)訂單顯示商品不存在,進(jìn)入到商家界面發(fā)現(xiàn),所有的商品均已下架。
然而,記者在社交平臺(tái)上搜索“ChatGPT賬號(hào)”等關(guān)鍵詞發(fā)現(xiàn),仍有不少網(wǎng)友在提供代注冊、有償賬號(hào)分享服務(wù),圍繞ChatGPT賬號(hào)展開的買賣行為仍在野蠻生長。
朱杰認(rèn)為,這種買賣行為可能構(gòu)成非法經(jīng)營等違法行為。ChatGPT的正版服務(wù)由境外機(jī)構(gòu)提供,而未經(jīng)我國相關(guān)部門批準(zhǔn)利用VPN跨境提供經(jīng)營活動(dòng)是被明確禁止的,所以國內(nèi)這些代問、代注冊的商家以營利為目的,搭建或使用VPN進(jìn)行注冊賬號(hào),未辦理國家相關(guān)行政許可,擅自經(jīng)營買賣國外賬號(hào),可能會(huì)受到行政處罰甚至刑事處罰。
ChatGPT賬號(hào)價(jià)值被炒作成商品以外,借其名稱熱度“搭便車”的牟利行為也大量出現(xiàn)。近日,記者查詢發(fā)現(xiàn),以“ChatGPT”“智能問答”等字眼作名稱的小程序、公眾號(hào)數(shù)量激增,不少小程序都顯示有“1000+人最近使用”。
記者使用其中一些小程序后發(fā)現(xiàn),這些產(chǎn)品不僅和ChatGPT毫無關(guān)系,而且大多以免費(fèi)試用為噱頭,吸引用戶注冊使用后,再推出收費(fèi)服務(wù),最終目的是誘人充值以牟利。例如,一個(gè)名為“××超級(jí)AI”的公眾號(hào)中提到,可以為用戶提供ChatGPT中文版的服務(wù),小程序界面有不同的服務(wù)類型,從“AI情感問題”到“AI程序助手”,用戶可以選擇與不同的AI聊天。
可當(dāng)記者點(diǎn)擊進(jìn)入“AI情感問題”一欄,還未進(jìn)行任何操作,對話框就顯示記者“已經(jīng)用完今天的免費(fèi)次數(shù)”,后續(xù)體驗(yàn)需要購買VIP,分別為19.9元的一天會(huì)員、199元的月度會(huì)員與999元的年度會(huì)員。
朱杰說,“山寨”軟件打著正版軟件的旗號(hào)進(jìn)行宣傳,欺騙消費(fèi)者進(jìn)行下載,可能構(gòu)成虛假廣告;同時(shí),“山寨”軟件使用的名稱及標(biāo)志如與正版軟件相同或相似,引導(dǎo)他人誤認(rèn)為與正版存在特定聯(lián)系,可能構(gòu)成反不正當(dāng)競爭法中規(guī)定的商業(yè)混淆行為,將受到行政處罰。
法律規(guī)范必不可少
部門監(jiān)管精細(xì)治理
ChatGPT浪潮澎湃,其背后暴露出的人工智能法律風(fēng)險(xiǎn)、圍繞ChatGPT展開的無序商業(yè)行為亦洶涌來襲,如何應(yīng)對成為關(guān)注焦點(diǎn)。
上海政法學(xué)院人工智能法學(xué)院副教授郭金蘭告訴記者,我國算法行業(yè)在此前的標(biāo)準(zhǔn)制定時(shí)已經(jīng)初步嘗試了以場景和架構(gòu)為基準(zhǔn)的思路。
2018年7月,中國科學(xué)院軟件研究所聯(lián)合15家產(chǎn)學(xué)研單位共同編制首個(gè)國內(nèi)人工智能深度學(xué)習(xí)算法標(biāo)準(zhǔn)《人工智能深度學(xué)習(xí)算法評估規(guī)范》。這一規(guī)范基于深度學(xué)習(xí)算法可靠性的內(nèi)部和外部影響,結(jié)合實(shí)際應(yīng)用場景,確定了由7個(gè)一級(jí)指標(biāo)和20個(gè)二級(jí)指標(biāo)組成的算法可靠性評估指標(biāo)體系,做了場景化和精細(xì)化算法治理實(shí)踐的有益嘗試。
2022年出臺(tái)的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》中明確要求,人工智能的算法應(yīng)當(dāng)堅(jiān)持社會(huì)主義主流價(jià)值觀,不能利用算法危害國家安全和社會(huì)公共利益、擾亂經(jīng)濟(jì)秩序和社會(huì)秩序、侵犯他人合法權(quán)益。今年1月10日起施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》中明確,任何組織和個(gè)人不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播法律、行政法規(guī)禁止的信息,不得利用深度合成服務(wù)從事危害國家安全和利益、損害國家形象、侵害社會(huì)公共利益、擾亂經(jīng)濟(jì)和社會(huì)秩序、侵犯他人合法權(quán)益等法律、行政法規(guī)禁止的活動(dòng)。
隨著人工智能產(chǎn)品不斷迭代升級(jí),未來對相關(guān)產(chǎn)品該如何進(jìn)行監(jiān)管與應(yīng)對?
郭金蘭認(rèn)為,對人工智能監(jiān)管,需要深入人工智能系統(tǒng)的整個(gè)生命周期,從模型的建立、語料庫的標(biāo)注、模型訓(xùn)練、投放市場后的迭代進(jìn)化直到系統(tǒng)退出使用。監(jiān)管需要關(guān)注到每個(gè)具體的環(huán)節(jié),包括語料庫的篩選標(biāo)準(zhǔn)制定、參與人工標(biāo)注的人員培訓(xùn),開發(fā)者的價(jià)值觀考察等。
“對ChatGPT這類生成式人工智能的監(jiān)管必須將算法監(jiān)管和數(shù)據(jù)監(jiān)管結(jié)合起來。在算法監(jiān)管機(jī)制的未來探索中,應(yīng)充分考慮算法決策的主體類型和作用類別,探索場景化和精細(xì)化的算法治理機(jī)制?!惫鹛m建議說。
朱杰建議,國家應(yīng)當(dāng)加強(qiáng)對人工智能的倫理規(guī)制,將倫理道德納入人工智能研發(fā)和應(yīng)用的全過程,增強(qiáng)全社會(huì)人工智能的倫理意識(shí)和行為自覺,積極引導(dǎo)負(fù)責(zé)任的人工智能研發(fā)與應(yīng)用活動(dòng),促進(jìn)人工智能健康發(fā)展。
敬請關(guān)注電子技術(shù)應(yīng)用2023年2月22日==>>商業(yè)航天研討會(huì)<<