《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 「發(fā)展」的AI倫理治理觀:既要「揚善」,也要「除惡」

「發(fā)展」的AI倫理治理觀:既要「揚善」,也要「除惡」

2021-12-22
來源:數(shù)據(jù)派THU
關鍵詞: AI 保護隱私 商湯

近日,商湯科技所提出「發(fā)展」的AI倫理觀,從人的角度出發(fā)。與早期的「AI倫理」不同,商湯所提出的發(fā)展AI倫理觀,不僅強調對技術負面影響的約束,還強調人工智能對社會與個人的正向價值。

更重要的是,商湯認為,在發(fā)展與落地人工智能技術的過程中,「AI倫理」要考慮行業(yè)變革的飛快性,在技術發(fā)展的不同階段采取不同治理框架,實現(xiàn)社會的發(fā)展平衡。

簡而言之,就是:緊跟時代,以人為本,既要「揚善」,也要「除惡」。

01. AI治理的復雜性

近幾年,隨著人工智能在日常生活中的不斷滲入,這項神奇的技術也逐漸向世人展示了自己的正邪兩面。

先看「善」的一面。

這兩年,新冠疫情爆發(fā),被廣泛使用的無感測溫、無感通行,便是基于感知識別的人工智能技術。嫁接于各個計算機軟硬件的AI技術,如智能圖像處理、便捷支付、對話機器人等等,也極大地便利了人們的日常生活。

舉個例子。此前商湯也研發(fā)智能避障眼鏡,幫助視力障礙者在戶外行走時獲得交通信號、環(huán)境障礙物等語音提示,改善視障人士的生活。

人工智能不僅在實際的應用中帶來了極為直觀的價值,在學術研究上也產生了令人矚目的影響。比如,前段時間,DeepMind用機器學習證明了兩大困擾人類科學家數(shù)十年的數(shù)學猜想,登頂Nature。人工智能學家將AI與物理、生物、化學等基礎研究相結合、并取得卓越成果的例子亦不勝枚舉。

但與此同時,由于深度學習算法的「黑盒子」特征,以及人工智能系統(tǒng)在現(xiàn)實生活落地中所體現(xiàn)的不穩(wěn)定性、不可控性等,誤用、或濫用人工智能給人類社會帶來的傷害也不容小覷。

在這樣的背景下,建立AI的倫理體系實為大勢所趨。為了促進AI技術的良性發(fā)展,各方力量承擔起了不同的角色。比方說,據(jù)聯(lián)合國統(tǒng)計,全球目前一共出臺了超過150份有關AI治理的報告方案,學術界也掀起了「可信AI」、「負責任AI」與「AI向善」等多個新興話題的研究熱潮。

那么,科技公司應該如何承擔起AI可持續(xù)發(fā)展的責任?作為AI產業(yè)的先行者,商湯有自己的思考。

首先,AI技術要不要發(fā)展?答案無疑是肯定的。正如商湯科技副總裁、商湯人工智能倫理委員會的主席楊帆所說:

「解決技術倫理最簡單直接的方法,看起來似乎是不搞技術創(chuàng)新,那么自然就不會存在數(shù)字科技的諸多問題。然而,國家要發(fā)展,社會要進步,人們的生活質量要改善。前沿科技的發(fā)展對家、國、天下都非常重要。如果有顧慮就放棄發(fā)展,就是因噎廢食?!?/p>

「技術發(fā)展與技術治理,本身就是制約與平衡的關系,韁繩勒得太早、勒得太死,會制約技術的發(fā)展;在技術演進的過程中,適時地收一收繩子、收住技術的底線和邊界,才能讓技術發(fā)展與應用,走得快、走得遠。如今,AI已經走出實驗室,隨著AI通用大裝置的日漸發(fā)展,機器猜想將帶給我們更多的可能,倫理治理由此將更為重要。」

楊帆還表示:「沒有理論可以完美解釋技術,但我們要了解技術應用的邊界。通過AI倫理治理,既是規(guī)避AI技術的負面影響,引導技術的正向發(fā)展,推動公司與行業(yè)的可持續(xù)發(fā)展;同時,這也是業(yè)內領先公司、以及所有AI從業(yè)者們所應當承擔的社會責任?!?/p>

從成立之初,商湯的使命便一直沒有改變:堅持原創(chuàng),讓AI引領人類進步。也就是說,在商湯將AI落地的過程中,AI的服務對象不應該局限于一個特定的群體,而應該面向整個人類社會。

楊帆提出,AI治理是一個多目標、多維度的平衡過程。比如,防疫期間,保護集體利益的目標與尊重個人行程隱私的目標要權衡;健康碼快速人群分類進行針對性防治與老年人數(shù)碼產品使用問題要權衡等等。

多維目標的權衡,意味著AI治理的難度在增加。為此,商湯倫理委員會整理國際主流的治理觀點、以及產業(yè)一線的實踐經驗,提出了AI治理的三大核心:技術可控、以人為本與可持續(xù)發(fā)展。具體來說,每個核心的表現(xiàn)大約如下:

可持續(xù)發(fā)展:保護環(huán)境、保護和平、包容共享、開放協(xié)作、社會認知、敏捷治理……

以人為本:保護人權、保護隱私、人類可控、公平無歧視、造福人類……

技術可控:可驗證、可審查、合法性、可信任、可解釋、安全可靠、公開透明、負責任……

制度式的「技術可控」

值得注意的是,商湯科技在「AI倫理」的參與過程中,不僅是停留在倡議或報告類的書面工作上。商湯的「關鍵行動」,是率先將「AI倫理」的治理工作貫徹在產品與業(yè)務的運營過程中,使之成為商湯企業(yè)管理中的一環(huán)。

2020年1月,商湯成立了人工智能倫理委員會,從企業(yè)的組織架構上滲透「AI治理」的觀念。

對內,委員會審核商湯的所有落地產品線,對員工進行倫理通識培訓,提高員工在日常工作中的倫理意識;對外,與其他組織合作,共同開展AI倫理的研究工作。

為了保證委員會所作決策的客觀與中立,該倫理委員會有一條硬性規(guī)定,即外部委員不能少于1/3的席位。

今年上半年,該委員會上線了倫理審核系統(tǒng),從實際的運營「把關」中踐行了「技術可控」的核心AI治理原則。

該線上系統(tǒng)的設置,結合參考了國內外在技術倫理方面眾多的政策制度和研究成果。審核體系從數(shù)據(jù)風險、算法風險與社會風險三大維度出發(fā),設置十余個板塊,近30道題目,從尊重人權、向善性、無偏性、隱私保護、可靠性、透明及可解釋性、問責性等等角度,對項目進行詳細拆解,考察其倫理水平。

目前,倫理審核已經嵌入商湯立項審核流程,進行線上評審,并根據(jù)評分對被審核的產品進行風險等級劃分。對于倫理風險較高的產品,該系統(tǒng)會予以駁回,提出中斷開發(fā)、下線或整改的要求。若無法通過整改,則不予以立項上市。

比如,曾經有「AI算命」的客戶提出用計算機視覺技術識別人體特征、手掌掌紋等信息,自動給出用戶的人生運勢等預測。識別這些信息和特征,技術上來說并不難,但這顯然不符合價值觀,即使預見可以有所收益,這樣的項目也無法立項成型。

楊帆的看法是:「技術有所不為,而后才能有所為。」雖然一個高盈利的AI產品可能會因為風險問題被淘汰、從而對公司營收會造成直接影響,但從長遠的角度來看,這是必要的。

目前,這套系統(tǒng)已經全面覆蓋商湯存量產品與新增申請立項產品,形成了內部的產品項目從立項、發(fā)布、運營全生命周期的倫理風險控制機制。倫理審核結果會伴隨產品研發(fā)和發(fā)布的全過程,若發(fā)布階段產品有重大變化,則需要重新審核說明。

據(jù)商湯披露,從該系統(tǒng)上線至今,已有 10% 的產品被責令整改或下線;在對新增項目審核中,有 5% 的項目被打回整改,或駁回立項,累計放棄價值數(shù)百萬的商業(yè)利益。

「光有概念、有想法是不夠的,AI倫理治理既需要高屋建瓴的指引原則,也需要具體而微的評估指標。系統(tǒng)的建立就是根據(jù)這些指標維度建構人工智能倫理風險評估體系,將指標具體化、操作化,為企業(yè)的技術治理與風險管控提供支持?!箺罘硎?,

而在實踐中,AI倫理管理系統(tǒng),通過系統(tǒng)的方式將風險識別、評估、處理、 監(jiān)控及匯報等各環(huán)節(jié)都進行了覆蓋,明確各產品全生命周期中各個主體的風險管控責任,讓技術可控有章可循、有規(guī)可依、有據(jù)可查?!?/p>

今年11月,商湯因倫理方面前瞻性思考和實踐,獲得了《哈佛商業(yè)評論》2021年度拉姆·查蘭管理實踐獎。這也是國內首個因為在技術倫理與治理方面的實踐而獲得的頂尖商學院媒體授予的企業(yè)。

03. 「發(fā)展」的AI倫理觀

「技術可控」并非目的,而是手段。

說到底,人工智能企業(yè)在技術創(chuàng)新中「有所不為」的最終目標,不是為了停止人工智能技術的研究與創(chuàng)新,而是以一種良性的、可持續(xù)的方式在現(xiàn)實生活中發(fā)展人工智能,緊跟時代需求,使其為人類、為社會造福。

今年,在倫理審核之外,商湯也繼續(xù)保持其在人工智能技術上的創(chuàng)新,推出AI大裝置等人工智能基礎設施,「倫理治理」與「技術創(chuàng)新」雙管齊下,為行業(yè)做貢獻。

「無論是技術本身、還是技術治理上,商湯都是開放而堅定的長期主義者。AI倫理治理是一個需要持續(xù)關注與投入的話題。人工智能倫理的發(fā)展,需要多方合作、共同探索?!?/p>

據(jù)了解,目前,商湯科技已與清華大學人工智能國際治理研究院、上海交通大學、上海人工智能實驗室、上??茖W學所、數(shù)據(jù)法盟等共10家機構展開合作,圍繞敏捷治理、數(shù)據(jù)安全、人工智能算法的可解釋性等方面開展聯(lián)合研究,平均每年推動五個專項課題的研究,產出10+專項研究報告。

當越來越多力量參與其中,「AI倫理」就不再只是一句口號,而會演化成實際的行動,貫徹人工智能的發(fā)展始終,最終推動人工智能在人類社會的全面落地。彼時,人類與AI才算得上是真正的「和諧共存」。而這,也正是「發(fā)展」AI倫理觀的愿景所在。




最后文章空三行圖片.jpg


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。