隨著技術(shù)研究不斷深入、水平不斷提高, 人工智能(Artificial Intelligence,AI)技術(shù)正在數(shù)字經(jīng)濟(jì)發(fā)展中發(fā)揮越來(lái)越重要的作用。在AI 技術(shù)發(fā)展過(guò)程中,倫理道德、數(shù)據(jù)隱私和安全性等問(wèn)題一開(kāi)始就作為頂層設(shè)計(jì)的重要內(nèi)容,保障 AI發(fā)展的底線。近年來(lái),歐美主要經(jīng)濟(jì)體認(rèn)識(shí)到 AI 技術(shù)競(jìng)爭(zhēng)的重要性,提出多項(xiàng)措施激勵(lì) AI 發(fā)展;也不斷探索 AI 發(fā)展與監(jiān)管的平衡,明確提出 AI 倫理、隱私保護(hù)和安全的相關(guān)立法與倡議。其中的若干思路值得我國(guó)參考借鑒,以切實(shí)保障 AI 技術(shù)安全、可靠發(fā)展。
一、AI 發(fā)展應(yīng)充分重視數(shù)據(jù)治理與隱私保護(hù)問(wèn)題
AI 的運(yùn)用涉及大量的數(shù)據(jù),尤其是 AI 訓(xùn)練時(shí)使用的數(shù)據(jù)集以及運(yùn)作后產(chǎn)生的大量數(shù)據(jù)。這些數(shù)據(jù)可能是結(jié)構(gòu)化或是非結(jié)構(gòu)化的數(shù)據(jù),若需要對(duì)這些數(shù)據(jù)加以利用,必然涉及傳輸、處理及存儲(chǔ)等環(huán)節(jié),面臨著跨境數(shù)據(jù)流通、數(shù)據(jù)泄露等風(fēng)險(xiǎn)。尤其是更多的數(shù)據(jù)位于傳統(tǒng) IT 的邊界之外,或存儲(chǔ)于混合云和多云環(huán)境中,或是分布式存儲(chǔ),更加大了數(shù)據(jù)保護(hù)的難度。
然而,現(xiàn)實(shí)情況比想象中更為復(fù)雜。美國(guó)網(wǎng)絡(luò)安全公司 Imperva 的一份調(diào)查報(bào)告顯示,2020 年全球在線數(shù)據(jù)泄露事件的數(shù)量達(dá)到 170 萬(wàn)次,同比增長(zhǎng) 93%。2021 年 4 月,106 個(gè)國(guó)家和地區(qū)的超 5 億臉書用戶的數(shù)據(jù)暴露于一個(gè)黑客論壇,其中包含用戶的電話號(hào)碼、居住地址等。數(shù)據(jù)的非正當(dāng)利用,有可能危害國(guó)家安全、個(gè)人權(quán)益,并帶來(lái)一系列不可預(yù)知的后果。
為加強(qiáng)數(shù)據(jù)保護(hù),各國(guó)均提出了數(shù)據(jù)保護(hù)立法。美國(guó)加利福尼亞州于 2018 年提出《加州消費(fèi)者隱私法案》(California Consumer Privacy Act of 2018,CCPA),對(duì)受保護(hù)數(shù)據(jù)的類型作出規(guī)定,并賦予消費(fèi)者數(shù)據(jù)訪問(wèn)權(quán)、數(shù)據(jù)刪除權(quán)和知情權(quán)等權(quán)利。歐盟于 2018 年施行《通用數(shù)據(jù)保護(hù)條例》(GeneralData Protection Regulation,GDPR),規(guī)范數(shù)據(jù)使用,賦予個(gè)人用戶數(shù)據(jù)“刪除權(quán)”和“移植權(quán)”,并加強(qiáng)對(duì)數(shù)據(jù)傳輸至歐盟以外的“第三國(guó)”的管控。這兩項(xiàng)立法在全球引發(fā)廣泛的關(guān)注,其中的許多條款為多個(gè)國(guó)家的數(shù)據(jù)保護(hù)立法提供參考。我國(guó)《網(wǎng)絡(luò)安全法》和《個(gè)人信息保護(hù)法(草案)》等法規(guī)條款,也對(duì)數(shù)據(jù)的邊界、個(gè)人信息的定義等內(nèi)容進(jìn)行規(guī)范,明確數(shù)據(jù)使用的權(quán)利和義務(wù)。
除去數(shù)據(jù)的非正常利用情況,企業(yè)和組織掌握數(shù)據(jù)量的多寡,將帶來(lái) AI 效能的高低不同,這是一件顯而易見(jiàn)的事情。擁有更多數(shù)據(jù)的企業(yè)和組織,將有更多機(jī)會(huì)發(fā)展自身的 AI 業(yè)務(wù),進(jìn)一步提高服務(wù)水準(zhǔn),形成規(guī)模優(yōu)勢(shì)。數(shù)據(jù)量的差異,有可能在周而復(fù)始的周期性運(yùn)作中進(jìn)一步擴(kuò)大,進(jìn)而形成數(shù)據(jù)壟斷的局面,不利于數(shù)字經(jīng)濟(jì)健康、均衡發(fā)展。
二、AI 技術(shù)應(yīng)受到倫理道德約束
科幻作家艾薩克·阿西莫夫(Isaac Asimov)在1950 年出版的小說(shuō)《我,機(jī)器人》中提出“阿西莫夫三大定律”(又稱“機(jī)器人學(xué)三大法則”)。這三大定律分別為:“第一定律:機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手旁觀”“第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外”“第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存”。這三大定律為人類探討 AI 倫理準(zhǔn)則提供了較為早期的參考。目前,各國(guó)之間廣泛認(rèn)同的 AI 倫理準(zhǔn)則可總結(jié)為以下四個(gè)方面,分別為可靠性與安全性;透明度與可解釋性;非歧視原則;負(fù)責(zé)任的 AI。
?。ㄒ唬┛煽啃耘c安全性
可靠與安全是 AI 進(jìn)行一切活動(dòng)的前提,是最基本的要求。正如前文“阿西莫夫三大定律”所述,機(jī)器在進(jìn)行運(yùn)作活動(dòng)、服務(wù)于人類生產(chǎn)生活時(shí),應(yīng)確保人類的安全且不具有威脅性。在后期的 AI 倫理研究中,研究者也從安全出發(fā),不斷擴(kuò)充這類研究的內(nèi)涵,以應(yīng)對(duì)發(fā)展中的諸多挑戰(zhàn)。
?。ǘ┩该鞫扰c可解釋性
由于傳統(tǒng) AI 系統(tǒng)的處理方式為人類無(wú)法了解的“黑箱”模式,人類僅能知道系統(tǒng)的輸入(特定的數(shù)據(jù)與激勵(lì))和輸出內(nèi)容(處理后的數(shù)據(jù)與決策信息),無(wú)法理解 AI 做出特定決策的原因。線性回歸、決策樹(shù)和貝葉斯網(wǎng)絡(luò)等傳統(tǒng)算法可被解釋,但其精確度十分有限,而深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等算法的精度較高,但可解釋性差、參數(shù)規(guī)模龐大,人類無(wú)法了解 AI 系統(tǒng)的運(yùn)行路徑、無(wú)法在必要時(shí)候獲取有關(guān)信息。這就導(dǎo)致人類無(wú)法完全設(shè)計(jì)、控制敏感領(lǐng)域所使用的 AI,如自主武器、自動(dòng)駕駛汽車等系統(tǒng)發(fā)生事故時(shí),難以判斷其失誤原因;在 AI 信貸評(píng)分系統(tǒng)拒絕某人的貸款時(shí),無(wú)法給予明確的解釋。
美國(guó)國(guó)防部高級(jí)研究計(jì)劃局(Defense AdvancedResearch Projects Agency,DARPA) 自 2016 年起啟動(dòng)“可解釋的人工智能”(Explainable AI,XAI)項(xiàng)目,力爭(zhēng)解決人工智能透明度的挑戰(zhàn),打開(kāi)人工智能的“黑匣子”。這一項(xiàng)目在三個(gè)方面開(kāi)展工作:深度解釋、構(gòu)建更多可解釋模型和模型歸納。在這一項(xiàng)目下,研究人員嘗試通過(guò)可視化等方式對(duì)現(xiàn)有 AI 進(jìn)行解釋,并創(chuàng)建本身就可解釋的 AI 模型,以便于幫助用戶和開(kāi)發(fā)人員理解 AI 算法,了解 AI 所作的決定,最終設(shè)法提高 AI 的可信度。
(三)非歧視原則
AI 的部署應(yīng)當(dāng)遵循多樣性、公平性與包容性的非歧視原則,無(wú)論是出于道德原因還是實(shí)際需求都非常重要。舉例來(lái)說(shuō),對(duì)大量的數(shù)據(jù)進(jìn)行匯總分析,可以利用 AI 技術(shù)幫助分析貸款申請(qǐng)人的信譽(yù),決定是否給予貸款以及額度;同時(shí)也可以對(duì)應(yīng)聘者進(jìn)行評(píng)估,決定是否錄??;還可以預(yù)測(cè)犯罪分子再次犯罪的幾率,等等。然而,有些 AI 系統(tǒng)或存在歧視與偏見(jiàn)。舉例而言,許多面部識(shí)別系統(tǒng)的準(zhǔn)確率欠佳,尤其是在識(shí)別深色皮膚面孔時(shí)。根據(jù)美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standardsand Technology,NIST)發(fā)布的一份報(bào)告,2010 年至2018 年間,算法在大型數(shù)據(jù)庫(kù)中精確識(shí)別人臉的能力提升了 25 倍,只有 0.2% 的概率會(huì)出現(xiàn)無(wú)法匹配人臉的情況,而算法在識(shí)別深色人種面孔方面的能力較差,即使是性能最佳的人臉識(shí)別系統(tǒng),識(shí)別深色人種的錯(cuò)誤率也比白種人高 5~10 倍。
AI 產(chǎn)生歧視的原因來(lái)自兩個(gè)方面:一是當(dāng)前 AI技術(shù)的發(fā)展水平仍然較為有限,其模式識(shí)別的能力未能實(shí)現(xiàn)對(duì)特有模式(較深的膚色、多樣化的行為特征等)的有效識(shí)別;二是部分 AI 在設(shè)計(jì)之初并未針對(duì)特殊模式(“模式”為環(huán)境和客體的統(tǒng)稱)進(jìn)行設(shè)計(jì),如人臉識(shí)別系統(tǒng)在訓(xùn)練時(shí)可能并未針對(duì)有色人種進(jìn)行優(yōu)化,亦或是其訓(xùn)練數(shù)據(jù)集中并沒(méi)有足夠數(shù)量、保證質(zhì)量的深色人種面部數(shù)據(jù)。更甚者,AI 系統(tǒng)可能在自我學(xué)習(xí)的過(guò)程中接受了存在偏見(jiàn)的信息,最終形成了含有偏見(jiàn)的處理模式。這一擔(dān)憂并非空穴來(lái)風(fēng),英國(guó)倫敦大都會(huì)警察局曾于 2020 年初宣布開(kāi)始大規(guī)模部署面部識(shí)別系統(tǒng)以打擊犯罪,而由于這一系統(tǒng)的誤報(bào)率曾一度高達(dá) 98%,引發(fā)了民眾的抗議。
(四)負(fù)責(zé)任的 AI
AI 在運(yùn)作過(guò)程中,很有可能會(huì)產(chǎn)生錯(cuò)誤決策或失誤,從而引起人員傷害、財(cái)產(chǎn)損害等狀況。如何對(duì) AI 所擔(dān)負(fù)的責(zé)任進(jìn)行明確與劃分,一直以來(lái)是業(yè)界關(guān)注的問(wèn)題。一旦發(fā)生糾紛,責(zé)任具體是歸于設(shè)計(jì)者還是使用者,亦或是歸咎于 AI 本身。當(dāng)前,這類討論尚無(wú)明確的結(jié)果和較為廣泛的共識(shí),導(dǎo)致目前許多因使用 AI 系統(tǒng)而產(chǎn)生的案件無(wú)法明確責(zé)任方。例如,2016 年,我國(guó)發(fā)生的一起輔助駕駛汽車撞擊致死案件至今懸而未決。一輛開(kāi)啟輔助駕駛功能的小轎車在高速公路上撞擊前方的道路清掃車,導(dǎo)致小轎車駕駛員當(dāng)場(chǎng)身亡。然而,在案件調(diào)查過(guò)程中,汽車生產(chǎn)廠商始終拒絕承擔(dān)責(zé)任,并表示無(wú)法提供充足的行駛數(shù)據(jù)以配合調(diào)查。此類案件引起了較大爭(zhēng)議,也表明 AI 責(zé)任的劃分仍需要長(zhǎng)期的研究和討論。而面對(duì)復(fù)雜的情形,也應(yīng)當(dāng)遵循“一案一審”的原則,根據(jù)實(shí)際情況,通過(guò)審慎的調(diào)查來(lái)明確。
三、歐美主要經(jīng)濟(jì)體正探索 AI 創(chuàng)新與監(jiān)管的平衡
近年來(lái),歐美行政機(jī)構(gòu)相繼提出多項(xiàng)倡議與監(jiān)管措施,以預(yù)防倫理和數(shù)據(jù)隱私問(wèn)題、規(guī)范 AI 技術(shù)的研發(fā)與部署。一方面,對(duì) AI 采取必要監(jiān)管是這一行業(yè)長(zhǎng)期健康發(fā)展的必然要求;另一方面,歐美國(guó)家已經(jīng)意識(shí)到中國(guó)人工智能技術(shù)的崛起,為應(yīng)對(duì)激烈競(jìng)爭(zhēng),愈發(fā)重視人工智能治理和數(shù)據(jù)可利用性,以期更安全、更規(guī)范地進(jìn)行人工智能研發(fā),激發(fā)人工智能應(yīng)用活力,推動(dòng)技術(shù)革新和行業(yè)進(jìn)步。
?。ㄒ唬┟绹?guó)的相關(guān)立法與倡議
2020 年 1 月,美國(guó)白宮科技政策辦公室(Officeof Science and Technology Policy,OSTP)發(fā)布美國(guó)人工智能監(jiān)管原則提案,敦促聯(lián)邦法規(guī)放寬對(duì)人工智能的限制,以推動(dòng)創(chuàng)新并避免監(jiān)管過(guò)度。提案中主要包括初步規(guī)范私人部門人工智能技術(shù)開(kāi)發(fā)和使用的 10 項(xiàng)監(jiān)管原則,指示各個(gè)聯(lián)邦監(jiān)管機(jī)構(gòu)在考慮實(shí)施與人工智能相關(guān)的監(jiān)管行動(dòng)時(shí),堅(jiān)持“公平、非歧視、公開(kāi)、透明、安全和保障”等原則,并聽(tīng)取公眾對(duì)擬出臺(tái)法規(guī)的反饋。2020 年 2 月,美國(guó)國(guó)防部(United States Department of Defense,DoD)正式采用國(guó)防創(chuàng)新委員會(huì)(Defense Innovation Board)于2019 年 10 月提出的“負(fù)責(zé)任、公平、可溯源、可信賴和可控”等人工智能倫理準(zhǔn)則。2020 年 8 月,美國(guó)國(guó)家標(biāo)準(zhǔn) 與技術(shù)研究院(National Institute ofStandards and Technology,NIST)提出 4 項(xiàng)原則,以確定人工智能所做決定的“可解釋”程度。具體的4 項(xiàng)原則為:人工智能系統(tǒng)應(yīng)為所有輸出提供相關(guān)證據(jù)或原因;人工智能系統(tǒng)應(yīng)向個(gè)體用戶提供有意義且易于理解的解釋;所提供的解釋應(yīng)正確反映人工智能系統(tǒng)生成輸出結(jié)果的過(guò)程;人工智能系統(tǒng)僅在預(yù)設(shè)或系統(tǒng)對(duì)其輸出有足夠信心的情況下運(yùn)行。該工作旨在通過(guò)理解人工智能的理論能力和局限性以及通過(guò)提高人工智能使用的準(zhǔn)確性(Accuracy)、可靠性(Reliability)、安全性(Security)、魯棒性(Robustness)和可解釋性(Explainability)來(lái)建立對(duì)人工智能系統(tǒng)的信任。
(二)歐盟的相關(guān)立法與倡議
2020 年 2 月,歐盟委員會(huì)在布魯塞爾發(fā)布《人工智能白皮書》(White Paper on Artificial Intelligence),旨在促進(jìn)歐洲在人工智能領(lǐng)域的創(chuàng)新能力,推動(dòng)道德和可信賴人工智能的發(fā)展。白皮書提出一系列人工智能研發(fā)和監(jiān)管的政策措施,并提出構(gòu)建“卓越生態(tài)系統(tǒng)”和“信任生態(tài)系統(tǒng)”。2020 年 2 月,歐盟委員會(huì)宣布將放棄為期 5 年的面部識(shí)別禁令,并鼓勵(lì)各成員國(guó)制定自己的面部識(shí)別法規(guī)。關(guān)于面部識(shí)別技術(shù)是否壓制人權(quán)的討論迫使歐盟放棄全面施行面部識(shí)別禁令,轉(zhuǎn)而建議各成員國(guó)評(píng)估面部識(shí)別技術(shù)的影響后,再將其推廣到公共場(chǎng)所。2020 年 11月,歐盟提出《數(shù)據(jù)治理法案》(Data GovernanceAct)。該法案將促進(jìn)整個(gè)歐盟以及各部門之間的數(shù)據(jù)共享,從而在增強(qiáng)公民和企業(yè)對(duì)數(shù)據(jù)掌控力度和信任程度的同時(shí),為歐盟經(jīng)濟(jì)發(fā)展和社會(huì)治理提供支撐。法案的相關(guān)條款將允許企業(yè)獲取公共和個(gè)人數(shù)據(jù),旨在促進(jìn)歐洲企業(yè)與美國(guó)和亞洲的同行競(jìng)爭(zhēng)。一旦獲取大量真實(shí)數(shù)據(jù),歐洲企業(yè)將能夠分析市場(chǎng)的實(shí)際需求,從而推出更好的人工智能產(chǎn)品和服務(wù),提升自身競(jìng)爭(zhēng)力。在該立法下,企業(yè)和研究機(jī)構(gòu)將能夠訪問(wèn)通常因隱私、商業(yè)機(jī)密或知識(shí)產(chǎn)權(quán)而被屏蔽的數(shù)據(jù)。同時(shí),歐盟數(shù)據(jù)隱私保護(hù)法規(guī)《通用數(shù)據(jù)保護(hù)條例》(GDPR)仍將適用。2020 年 12月,歐盟基本權(quán)利機(jī)構(gòu)(European Union Agency forFundamental Rights,F(xiàn)RA)發(fā)布《走向正確的未來(lái)》(Getting The Future Right)報(bào)告,深入討論必須考慮的人工智能技術(shù)倫理問(wèn)題。報(bào)告稱,算法存在偏見(jiàn)和歧視,這可能帶來(lái)社會(huì)問(wèn)題。如果沒(méi)有適當(dāng)?shù)耐该鞫?,這些偏見(jiàn)可能會(huì)對(duì)人類產(chǎn)生不利影響。FRA 敦促?zèng)Q策者就現(xiàn)有規(guī)則如何適用于人工智能提供更多指導(dǎo),并確保未來(lái)的人工智能法律保護(hù)人的基本權(quán)利。
2021 年 4 月,歐盟委員會(huì)發(fā)布《人工智能法律監(jiān)管框架》(Legal framework on AI)與《2021 年人工智能協(xié)調(diào)計(jì)劃》(Coordinated Plan on ArtificialIntelligence 2021 Review)政策提案,旨在規(guī)范 AI 技術(shù)風(fēng)險(xiǎn)并加強(qiáng)全歐洲對(duì) AI 技術(shù)的利用、投資和創(chuàng)新。《監(jiān)管框架》按照風(fēng)險(xiǎn)級(jí)別將 AI 技術(shù)及其應(yīng)用分為四類,一是具有不可接受風(fēng)險(xiǎn)的技術(shù),包括鼓勵(lì)未成年人危險(xiǎn)行為的語(yǔ)音系統(tǒng)、政府“社會(huì)評(píng)分系統(tǒng)”等操縱人類行為的 AI 系統(tǒng)或應(yīng)用程序,該類技術(shù)被禁止;二是高風(fēng)險(xiǎn)技術(shù),包括用于運(yùn)輸、教育、輔助手術(shù)、招聘、移民管理等事項(xiàng)的技術(shù),該類技術(shù)在進(jìn)入市場(chǎng)前需進(jìn)行風(fēng)險(xiǎn)評(píng)估、使用高質(zhì)量數(shù)據(jù)集測(cè)試、提供詳細(xì)的記錄文件等檢驗(yàn)保護(hù)措施,其中具有遠(yuǎn)程生物特征識(shí)別的系統(tǒng)使用前需司法授權(quán)并受時(shí)間和地理位置的限制;三是聊天機(jī)器人等風(fēng)險(xiǎn)有限的系統(tǒng),需履行透明披露義務(wù);四是視頻游戲等風(fēng)險(xiǎn)最小的應(yīng)用程序,法規(guī)不予以干預(yù)。《協(xié)調(diào)計(jì)劃》將統(tǒng)籌“數(shù)字歐洲”(Digital Europe)和“地平線歐洲”(Horizon Europe)計(jì)劃,以促使各國(guó)就促進(jìn) AI 技術(shù)使用和創(chuàng)新提出聯(lián)合行動(dòng)計(jì)劃。歐盟委員會(huì)建議由各成員國(guó)市場(chǎng)監(jiān)督主管機(jī)構(gòu)對(duì)《監(jiān)管框架》進(jìn)行監(jiān)督,成立歐洲人工智能委員會(huì)促進(jìn)其實(shí)施。
(三)加拿大的相關(guān)倡議
2020 年 11 月,加拿大隱私事務(wù)專員辦公室(Officeof the Privacy Commissioner of Canada,OPC)呼吁制定法律,使加拿大人能夠負(fù)責(zé)任地創(chuàng)新并從人工智能中受益,同時(shí)確?;緳?quán)利得到尊重。該辦公室還建議對(duì)《個(gè)人信息保護(hù)和電子文檔法案》(PersonalInformation Protection and Electronic Documents Act,PIPEDA)進(jìn)行修訂,允許將受保護(hù)的個(gè)人信息用于研究目的,以促進(jìn)人工智能創(chuàng)新和社會(huì)進(jìn)步。加拿大隱私事務(wù)專員辦公室認(rèn)為,盡管 AI 可能有助于應(yīng)對(duì)與醫(yī)學(xué)診斷、能源效率提升、個(gè)性化學(xué)習(xí)以及疏導(dǎo)交通流量有關(guān)的緊迫挑戰(zhàn),但 AI 系統(tǒng)利用個(gè)人信息來(lái)分析和預(yù)測(cè)行為并針對(duì)個(gè)人作出自動(dòng)決策可能引起嚴(yán)重后果。因此,需要解決有關(guān)公平、準(zhǔn)確、偏見(jiàn)和歧視的問(wèn)題,使 AI 技術(shù)以尊重隱私、平等和其他人權(quán)的方式部署。
四、對(duì)中國(guó)的啟示
中國(guó)是 AI 技術(shù)的后起之秀,項(xiàng)目轉(zhuǎn)化快、應(yīng)用場(chǎng)景豐富,應(yīng)用層成為 AI 發(fā)展的重要支撐。若將算力、算法、算據(jù)作為人工智能成功發(fā)展的三大要素,中國(guó)在算據(jù)方面有著最為突出的優(yōu)勢(shì)。憑借著眾多的人口、機(jī)構(gòu)和復(fù)雜的應(yīng)用場(chǎng)景,以及多年來(lái)數(shù)字經(jīng)濟(jì)發(fā)展奠定的基礎(chǔ),中國(guó)有大量的數(shù)據(jù)可供支持人工智能算法與系統(tǒng)創(chuàng)新,這也是中國(guó) AI 技術(shù)與數(shù)字經(jīng)濟(jì)長(zhǎng)期快速發(fā)展的重要原因之一。
參考?xì)W美在激勵(lì)創(chuàng)新和監(jiān)管方面的舉措,我國(guó)應(yīng)按照自身發(fā)展現(xiàn)狀和路徑,堅(jiān)持走發(fā)展和監(jiān)管并重的道路,確保 AI 行業(yè)高質(zhì)量創(chuàng)新,服務(wù)于經(jīng)濟(jì)建設(shè)這一中心。
(一)應(yīng)始終重視數(shù)據(jù)和隱私的保護(hù)
AI 發(fā)展中,需始終堅(jiān)守?cái)?shù)據(jù)和隱私保護(hù)的底線。隨著數(shù)字經(jīng)濟(jì)不斷發(fā)展,數(shù)據(jù)這一生產(chǎn)要素的產(chǎn)生、流動(dòng)和處理將愈發(fā)活躍,對(duì)數(shù)據(jù)保護(hù)的要求進(jìn)一步提高。而數(shù)據(jù)的海量增長(zhǎng),很可能顛覆傳統(tǒng)的數(shù)據(jù)保護(hù)機(jī)制,那么必須探索新的路徑,如大數(shù)據(jù)合法交易、探索聯(lián)邦學(xué)習(xí)機(jī)制等,保障“數(shù)據(jù)可用不可見(jiàn),用途可控可計(jì)量”的安全使用。
(二)應(yīng)充分重視 AI 倫理道德規(guī)范
AI 的運(yùn)用場(chǎng)景進(jìn)一步豐富,與百行百業(yè)交融,促進(jìn)行業(yè)發(fā)展繁榮。這一過(guò)程中,應(yīng)重視 AI 倫理道德若干準(zhǔn)則的探討,不斷豐富、完善其內(nèi)涵。進(jìn)而,在這些準(zhǔn)則的基礎(chǔ)上形成規(guī)范化的監(jiān)管和立法,保障 AI 技術(shù)可控、可靠。
(三)應(yīng)探索發(fā)展范式創(chuàng)新,不斷激發(fā)行業(yè)活力
隨著時(shí)代發(fā)展不斷向前,技術(shù)的進(jìn)步也將帶來(lái)發(fā)展范式的變化。企業(yè)和組織的運(yùn)作模式很可能因?yàn)?AI 技術(shù)的出現(xiàn)而發(fā)生顛覆性的改變,數(shù)字技術(shù)與實(shí)體經(jīng)濟(jì)深度融合,生產(chǎn)效率、服務(wù)效能將得到極大地提高,帶來(lái)社會(huì)生產(chǎn)力的大跨度發(fā)展。這也意味著 AI 及相關(guān)行業(yè)的競(jìng)爭(zhēng)將愈發(fā)激烈,唯有政策激勵(lì)、持續(xù)投入、堅(jiān)持創(chuàng)新,才能在國(guó)際競(jìng)爭(zhēng)中引領(lǐng)重要發(fā)展方向。