《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 關(guān)于加強人工智能應(yīng)用安全,促進數(shù)字經(jīng)濟穩(wěn)步發(fā)展的提案

關(guān)于加強人工智能應(yīng)用安全,促進數(shù)字經(jīng)濟穩(wěn)步發(fā)展的提案

2021-03-05
來源: 啟明星辰集團

  小編為大家分享全國政協(xié)委員、啟明星辰信息技術(shù)集團股份有限公司首席執(zhí)行官嚴(yán)望佳第二份提案

    提案二:關(guān)于加強人工智能應(yīng)用安全,促進數(shù)字經(jīng)濟穩(wěn)步發(fā)展的提案

 

  問題及原因分析

  數(shù)字經(jīng)濟作為引領(lǐng)未來的新經(jīng)濟形態(tài)已成為我國高質(zhì)量發(fā)展的新引擎,習(xí)近平總書記更是指出“數(shù)字經(jīng)濟是全球未來的發(fā)展方向”。數(shù)據(jù)作為生產(chǎn)要素,依托人工智能應(yīng)用將會充分展現(xiàn)其要素價值,促進數(shù)字經(jīng)濟的進一步騰飛。

  在大力發(fā)展人工智能應(yīng)用,助力數(shù)字經(jīng)濟發(fā)展的同時,必須堅持統(tǒng)籌發(fā)展與安全,加強人工智能應(yīng)用安全,促進數(shù)字經(jīng)濟穩(wěn)步前行。當(dāng)前人工智能應(yīng)用主要面臨如下一些安全問題。

  1)與人工智能應(yīng)用相關(guān)的數(shù)據(jù)安全及隱私保護問題。構(gòu)建人工智能應(yīng)用通常以大量數(shù)據(jù)為基礎(chǔ),包括可能涉及的個人數(shù)據(jù)、企業(yè)敏感數(shù)據(jù)等。而數(shù)據(jù)的采集、處理、計算等過程不可避免會產(chǎn)生數(shù)據(jù)安全與隱私保護問題。

  2)人工智能應(yīng)用中算法“黑盒”應(yīng)用模式的安全隱患。當(dāng)前很多人工智能應(yīng)用往往直接套用現(xiàn)有模型,缺乏對核心算法的深入剖析,忽視其工作原理。在這些應(yīng)用中,算法是不透明的“黑盒子”,很可能潛藏未知的安全隱患。

  3)人工智能應(yīng)用軟硬件供應(yīng)鏈安全問題。人工智能應(yīng)用的實現(xiàn)包含大量工程化工作,涉及從底層芯片到上層應(yīng)用開發(fā)的一系列軟硬件供應(yīng)鏈,每一環(huán)節(jié)都可能產(chǎn)生安全問題。另外,實現(xiàn)中可能依賴開源代碼,既存在引入漏洞或后門的風(fēng)險,又觸及知識產(chǎn)權(quán)方面的問題。

  4)逐漸顯現(xiàn)的人工智能應(yīng)用倫理安全問題。在這些問題中,既有將人工智能應(yīng)用于錯誤目的,比如屢屢發(fā)生的“大數(shù)據(jù)殺熟”;也有應(yīng)用構(gòu)建過程不合理,比如算法偏見造成的決策不公;還有應(yīng)用部署后的問題,比如決策錯誤引發(fā)損失時的責(zé)任認(rèn)定等。

  具體建議  

  “安全是發(fā)展的前提,發(fā)展是安全的保障”,為了穩(wěn)步推進數(shù)字經(jīng)濟發(fā)展,充分發(fā)揮人工智能應(yīng)用在發(fā)掘數(shù)據(jù)要素價值方面的作用,必須始終貫徹安全發(fā)展理念,從多方面采取有效措施加強人工智能應(yīng)用安全。具體建議如下:

  1)加強人工智能應(yīng)用相關(guān)的數(shù)據(jù)安全及隱私保護技術(shù)研究

  人工智能應(yīng)用在獲取數(shù)據(jù)價值的同時也面臨著數(shù)據(jù)安全風(fēng)險。傳統(tǒng)的數(shù)據(jù)脫敏等安全防護技術(shù)在隱藏敏感信息的同時也造成數(shù)據(jù)價值的損失。因此,在推進數(shù)據(jù)安全相關(guān)法律完善的同時,還應(yīng)加強隱私計算、安全多方計算等前沿技術(shù)研究,在不泄露隱私與敏感信息的前提下保留數(shù)據(jù)價值并支持人工智能應(yīng)用構(gòu)建所需的高效計算。建議設(shè)立相關(guān)專項課題推動產(chǎn)學(xué)研合作開展技術(shù)研究與應(yīng)用落地攻關(guān)等。

  2)強化人工智能應(yīng)用的透明性要求,避免“黑盒”應(yīng)用

  以深度神經(jīng)網(wǎng)絡(luò)為代表的新型人工智能算法模型復(fù)雜,尚缺乏嚴(yán)格的理論基礎(chǔ),其可解釋性仍然是一個前沿研究課題。在核心算法原理不明的情況下構(gòu)建的人工智能應(yīng)用可能產(chǎn)生意料之外的行為,安全風(fēng)險不可控。因此,必須提高人工智能應(yīng)用的透明性要求,尤其在涉及社會、人身安全的關(guān)鍵領(lǐng)域應(yīng)避免“黑盒”應(yīng)用。建議制定相關(guān)法律及標(biāo)準(zhǔn)規(guī)范,明確各領(lǐng)域人工智能應(yīng)用的透明性要求與衡量指標(biāo)等。

  3)推動人工智能應(yīng)用供應(yīng)鏈安全評估,強化自主可控要求

  在如今供應(yīng)鏈安全事件頻發(fā)的態(tài)勢下,人工智能應(yīng)用軟硬件供應(yīng)鏈的安全問題應(yīng)得到更多關(guān)注。因此,必須加強人工智能應(yīng)用供應(yīng)鏈安全評估,尤其對于涉及國計民生行業(yè)中的關(guān)鍵信息基礎(chǔ)設(shè)施相關(guān)的人工智能應(yīng)用,在做好安全評估的基礎(chǔ)上還應(yīng)強化自主可控要求,避免被“卡脖子”。建議規(guī)范人工智能應(yīng)用供應(yīng)鏈安全評估機制并研究評估技術(shù)與方法,促進相關(guān)核心技術(shù)研究以實現(xiàn)自主可控等。此外,考慮到人工智能應(yīng)用越來越多的源自開源軟件領(lǐng)域,建議高度關(guān)注與加強評估開源供應(yīng)鏈安全和開源軟件安全,做好開源領(lǐng)域的風(fēng)險管控。

  4)制度與技術(shù)雙輪驅(qū)動負(fù)責(zé)任的人工智能應(yīng)用

  國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》提出了和諧友好、公平公正、安全可控、共擔(dān)責(zé)任等人工智能發(fā)展原則。這些原則的落實對于人工智能應(yīng)用倫理安全問題的應(yīng)對及數(shù)字經(jīng)濟的長遠發(fā)展具有重大意義。因此,必須從制度與技術(shù)兩方面共同采取措施促進發(fā)展負(fù)責(zé)任的人工智能應(yīng)用。建議推動人工智能治理規(guī)范的量化評測方法研究并制定相關(guān)規(guī)范制度,促進產(chǎn)學(xué)研協(xié)同研究打造負(fù)責(zé)任的人工智能應(yīng)用等。

  

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。