《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 【ChatGPT】ChatGPT背后的數字安全威脅

【ChatGPT】ChatGPT背后的數字安全威脅

2023-02-17
來源:澎湃新聞
關鍵詞: ChatGPT AI

  2個月用戶破億迅速爆火的ChatGPT,讓普通人擁抱人工智能變得不再遙不可及。已經成為互聯網領域發(fā)展20年來,增長速度最快的一款2C的消費類應用程序。

  你只要給ChatGPT發(fā)提示(問題)就可以生成任意主題的文本內容,可以寫詩歌,小說散文,段子,甚至寫論文,做方案PPT等等,也可以讓ChatGPT寫代碼進行編程,甚至生成惡意軟件和鏈接。

  ChatGPT的“入侵”已經引起了各行各業(yè)對內容抄襲的擔憂,及網絡數據安全的提防意識的提高。雖然AI技術是中立的,但并不能成為規(guī)避責任與義務的理由。

  教育界和學術界已最先做出反擊。目前已有數千種科學期刊明令禁止或限制投稿人使用 ChatGPT 撰寫或編輯論文,包括知名學術期刊《科學》,《自然》等都更新了編輯規(guī)則。美國一些大學也通過網絡禁止接入ChatGPT,甚至要取消回家作業(yè)。

  其實AI倫理風險也一直被廣泛關注,即指AI可能會生產違反常規(guī)、違背法律和道德的內容,或幫助人類以作弊等形式完成違反常規(guī)、違背法律和道德。ChatGPT涉及的網絡數據安全合規(guī)主要涉及數據獲取,及惡意濫用所產生的問題。

  曾參與過行研社數據安全研討會的專家,北京師范大學互聯網發(fā)展研究院院長助理吳沈括教授認為ChatGPT在實際應用層面將面臨三種風險:

  第一種是在更巨量數據匯聚的過程中,可能會產生法律和安全風險;

  第二種是在模型和算法設計的過程中,可能產生倫理和違法風險;

  第三種是在實際應用過程中,可能被用于違法犯罪行為,進而帶來社會風險。

  知識產權

  目前最大的爭議是ChatGPT的“文本數據挖掘”是否需要相應的知識產權授權?ChatGPT通過互聯網抓取信息進行深度學習,而大多數網站都有防止第三方收集信息的網站隱私政策條款。從法律角度來看,國內的文本數據挖掘理論上需要相應的知識產權授權。并且,目前國內外大部分國家的知識產權法律下,僅有自然人可以享有著作權。這意味這如果AI利用真人的作品拼接出的創(chuàng)作,有可能存在侵權。因此,我國也已出臺了對AI深度合成技術的一些規(guī)范要求。

  數據合規(guī)

  生成式AI技術的商業(yè)化趨勢已經到來,眾多公司正在應用到自身的產品和服務中去。通過在線服務、智能客服,融入各類產品文本理解分析,多模態(tài)檢索等等,全面提升自身產品和服務的AI化。因此,網絡數據安全問題也開始被重視。

  ChatGPT可能導致一些敏感數據泄露風險。本月開始微軟和亞馬遜于已宣布禁止公司員工向ChatGPT分享。微軟內部的工程師也警告不要將敏感數據發(fā)送給OpenAI終端,因為OpenAI可能會將其用于未來模型的訓練。

  ChatGPT的虛假信息回復問題。作為基于語言模型的人工智能工具,ChatGPT也會編造一些看似正確的答案,即“一本正經的胡說八道”。這樣的虛假回復在商業(yè)化中會造成嚴重后果,甚至有法律風險。

  企業(yè)數字安全風險

  行研社APP平臺的數字化轉型行業(yè)圈匯聚了國內網絡數字安全領域頂級專家團隊。下面是在數字化轉型行業(yè)圈的行研會上,專家對企業(yè)在數字化轉型中遇到的各類數據安全、數據合規(guī)問題進行的深入講解。


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。