《電子技術應用》
您所在的位置:首頁 > 人工智能 > 設計應用 > 生成式人工智能時代信息生態(tài)秩序的失衡風險與治理方案
生成式人工智能時代信息生態(tài)秩序的失衡風險與治理方案
網絡安全與數(shù)據(jù)治理
王文玉,代金亮
西南大學法學院
摘要: 生成式人工智能驅動了人工智能生成內容時代的到來,變革了信息生成和傳播的機制。在變革過程中,信息生態(tài)秩序的失衡風險也隨之產生。受到語料庫、模型目標設定、模型微調中相關主體價值觀念等內外因素影響,生成式人工智能存在輸出和傳播虛構信息、錯誤信息、誤導性信息的問題,會對現(xiàn)有信息生態(tài)的有序性、真實性、可信性產生影響。為應對失衡風險,應在包容審慎、動態(tài)敏捷的柔性治理理念指引下,調動政府部門、運營管理主體、產品使用者等多元主體共同參與風險治理;針對模型訓練、服務嵌入、內容生成、內容發(fā)布、信息傳播等具體階段和場景展開分層分類精細治理;綜合采取法律規(guī)制、倫理規(guī)制、行業(yè)自律、技術規(guī)制等多種治理方案展開立體化治理。
中圖分類號:TP18;G206文獻標識碼:ADOI:10.19358/j.issn.2097-1788.2025.04.006
引用格式:王文玉,代金亮. 生成式人工智能時代信息生態(tài)秩序的失衡風險與治理方案[J].網絡安全與數(shù)據(jù)治理,2025,44(4):40-45.
Imbalance risks of information ecological order in the era of generative artificial intelligence and governance scheme
Wang Wenyu, Dai Jinliang
Law School, Southwest University
Abstract: Generative artificial intelligence drives the era of artificial intelligence generating content, and changes the mechanism and process of information generation and dissemination. In the process of change, it will lead to the risk of imbalance of information ecological order. Influenced by internal and external factors such as corpus, model goal setting and related subject values in model finetuning, generative artificial intelligence has the problems of outputting and disseminating fictitious information, false information and misleading information, which will affect the order, authenticity and credibility of the existing information ecology. In order to cope with the risk of imbalance, multi-subjects such as government departments, operational management entities, and product users should be mobilized to jointly participate in risk governance under the guidance of the flexible governance concept that is inclusive, prudent, dynamic and agile. For specific stages and scenarios such as model training, service embedding, content generation, content publishing and information dissemination, hierarchical and classified fine governance should be carried out.Finally, we should comprehensively adopt various governance schemes such as legal regulation, ethical regulation, industry self-discipline and technical regulation to carry out three-dimensional governance.
Key words : generative artificial intelligence; information ecological order; imbalance risk; risk management; prudent and comprehensive

引言

2022年底以ChatGPT為代表的生成式人工智能憑借流暢的問題應答和強大的文本處理能力引發(fā)了信息情報和新聞傳媒界的熱烈討論。生成式人工智能區(qū)別于以往人工智能算法的核心之處在于信息的產出方式,有賴于強大的信息處理和輸出能力,生成式人工智能驅動人類從專業(yè)生成內容(Professionally-generated Content,PGC)、用戶生成內容(User-generated Content,UGC)的時代逐步走向了人工智能生成內容(AI-generated Content,AIGC)的時代。這無疑會對當前信息生成、傳播的機制和流程產生重構效應,在變革中,信息生態(tài)秩序失衡風險也隨之產生。當前已有學者針對生成式人工智能的信息生成和傳播風險展開了研究。一方面,多數(shù)研究在分析生成式人工智能宏觀應用風險時,將信息生成和傳播風險問題作為其中的一部分予以探討[1]。但往往缺乏對信息生成和傳播問題獨特性的關注,造成相關風險應對方案缺乏針對性和可行性。另一方面,一些學者則從更為具體和細化的視角對這一問題展開了討論。如漆晨航針對生成式人工智能的虛假信息風險特征及其治理方案展開了探討[2]。向繼友、吳學琴則關注生成式人工智能所可能引發(fā)的意識形態(tài)風險,并提出了防控方案[3],具有較強的針對性。但生成式人工智能所引發(fā)的各類信息生態(tài)秩序失衡風險具有較強關聯(lián)性和系統(tǒng)性。因此,本文將以生成式人工智能對信息生態(tài)秩序可能造成的損害為主題,分析相關風險的內容和成因,并在現(xiàn)有理論和實踐探索基礎上,提出具有針對性、可行性和系統(tǒng)性的風險治理方案。


本文詳細內容請下載:

http://ihrv.cn/resource/share/2000006411


作者信息:

王文玉,代金亮

(西南大學法學院,重慶400700)


Magazine.Subscription.jpg

此內容為AET網站原創(chuàng),未經授權禁止轉載。