《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 其他 > 入門:人工智能也是以人為本? 如何測評人工智能對個(gè)人隱私保護(hù)的影響?

入門:人工智能也是以人為本? 如何測評人工智能對個(gè)人隱私保護(hù)的影響?

2022-08-29
來源:21ic中國電子網(wǎng)
關(guān)鍵詞: 機(jī)器人 AI

  [導(dǎo)讀]一直以來,人工智能都是大家的關(guān)注焦點(diǎn)之一。因此針對大家的興趣點(diǎn)所在,小編將為大家?guī)砣斯ぶ悄?a class="innerlink" href="http://ihrv.cn/tags/AI" target="_blank">AI的相關(guān)介紹,詳細(xì)內(nèi)容請看下文。

  一直以來,人工智能都是大家的關(guān)注焦點(diǎn)之一。因此針對大家的興趣點(diǎn)所在,小編將為大家?guī)砣斯ぶ悄蹵I的相關(guān)介紹,詳細(xì)內(nèi)容請看下文。

  一、人工智能也是以人為本?

  1985年,阿西莫夫在此基礎(chǔ)上增加第零定律,將三定律擴(kuò)充為四定律:機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。阿西莫夫的“機(jī)器人四定律”以人類為中心建立,因踐行以人為本而為后世所推崇。

  “以人為本”原則是人工智能算法侵權(quán)法律規(guī)制基本原則中的第一原則。其余原則均圍繞“以人為本”原則展開但側(cè)重不同,或在不違反“以人為本”的前提之下對科技創(chuàng)新的支持?!耙匀藶楸尽彪m是人類在千百年歷史中一直貫穿的價(jià)值觀,但在非人、卻類人甚至超人的新物種“人工智能”面前,“以人為本”原則的重申和堅(jiān)持變得尤為重要:技術(shù)發(fā)展的最終目標(biāo)是增強(qiáng)人類而非技術(shù)本身。侵權(quán)責(zé)任始終應(yīng)當(dāng)以對人類權(quán)益的侵犯、人類所遭受的損害及對人類損害的彌補(bǔ)作為法律規(guī)制的重心。

  相對于人工智能而言,“以人為本”原則非常清晰,但當(dāng)人類之間的利益存在沖突時(shí),“以人為本”原則開始變得復(fù)雜。例如,個(gè)人數(shù)據(jù)的權(quán)利主體與算法相對人的利益孰輕孰重?算法設(shè)計(jì)者與人工智能生產(chǎn)者的利益孰輕孰重?等等。這些問題的回答都涉及到對“以人為本”中“人”的解釋。小編認(rèn)為,當(dāng)人類利益發(fā)生沖突時(shí),“人”應(yīng)當(dāng)被理解為作為一個(gè)整體且需要長久、可持續(xù)發(fā)展的集體存在。因此,當(dāng)算法侵權(quán)法律規(guī)制需要在人與人之間做出價(jià)值抉擇時(shí),“以人為本”原則應(yīng)當(dāng)著眼的是人類整體而非局部利益,長遠(yuǎn)而非眼前利益。

  二、人工智能對個(gè)人隱私保護(hù)影響的測度

  關(guān)于人工智能對個(gè)人隱私保護(hù)影響的測度。雖然目前這方面研究文獻(xiàn)很少,但各國學(xué)者和機(jī)構(gòu)的研究為這一領(lǐng)域的測度提供了很好的啟發(fā)。一方面,他們提出了人工智能影響個(gè)人隱私保護(hù)的路徑和原因,為今后的測度研究提供了可能的方向。Pagallo(2013)等指出,消費(fèi)者信息被收集起來之后會(huì)帶來很多問題。商家可以利用這些信息進(jìn)行價(jià)格歧視、過度推銷,甚至在某些時(shí)候會(huì)威脅到消費(fèi)者安全。Tucker(2017)、Jin(2018)則進(jìn)一步指出,人工智能背景下的隱私權(quán)問題來自三個(gè)方面:由于商家收集消費(fèi)者信息的情況非常普遍,即使消費(fèi)者信息被利用,并且傷害到消費(fèi)者權(quán)益,消費(fèi)者也難以知道是哪個(gè)商家所為;由于侵權(quán)的懲罰非常困難,所以即使消費(fèi)者知道商家侵犯了自身權(quán)益,也很難對商家進(jìn)行懲罰;由于人工智能設(shè)備可能收集比預(yù)期更多的數(shù)據(jù),雇主實(shí)際上是在不透明的算法中使用數(shù)據(jù)。另一方面,他們提出了人工智能影響個(gè)人隱私保護(hù)的風(fēng)險(xiǎn)等級(jí),為今后分類分級(jí)測度這一影響構(gòu)建了一個(gè)初步框架。歐盟(2021)發(fā)布的人工智能監(jiān)管草案成為全球首個(gè)應(yīng)對人工智能風(fēng)險(xiǎn)的法律框架,該草案將人工智能帶來的風(fēng)險(xiǎn)分為完全不可接受風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)和低風(fēng)險(xiǎn)三類,其中有三種應(yīng)用被完全禁止:第一種是在不知不覺中對人類意識(shí)進(jìn)行操控,影響其決定或扭曲其行為,進(jìn)而對人類造成身體或心理的傷害;第二種是利用兒童或殘疾人的脆弱性對其造成傷害;第三種則是基于人工智能系統(tǒng)構(gòu)建的社會(huì)信用體系,因?yàn)樵谶@種信用體系下,個(gè)人或特定群體的權(quán)益可能受到損害。各國學(xué)者和機(jī)構(gòu)的努力,為今后測度人工智能對個(gè)人隱私保護(hù)的影響程度奠定了基礎(chǔ)。

  上述所有信息便是小編這次為大家推薦的有關(guān)人工智能的內(nèi)容,希望大家能夠喜歡,想了解更多有關(guān)人工智能的信息或者其它內(nèi)容,請關(guān)注我們網(wǎng)站哦。



更多信息可以來這里獲取==>>電子技術(shù)應(yīng)用-AET<<

mmexport1621241704608.jpg


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。