《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 業(yè)界動態(tài) > 人工智能先驅(qū)為何會擔(dān)憂人工智能?

人工智能先驅(qū)為何會擔(dān)憂人工智能?

2015-05-25

        據(jù)國外媒體報道,在今年一月份,來自加州大學(xué)伯克利分校計算機(jī)科學(xué)家Stuart Russell起草了致全體人工智能研究員的公開信,并第一個在上面簽名。Stuart呼吁研究者不能只注重讓人工智能變得更強(qiáng)大,同樣要保證其健康性和有益性:AI必須遵從人類的意愿,不能胡作非為。

        公開信發(fā)表后,已有數(shù)千人在上面簽名。其中不乏來自谷歌、Facebook、微軟等頂尖人工智能研究機(jī)構(gòu)的科學(xué)家。同時來自全世界的物理學(xué)家、哲學(xué)家也在上面留下了自己的名字。

        Stuart是加州大學(xué)伯克利分校的智能系統(tǒng)中心的創(chuàng)始人,他一直在關(guān)注機(jī)器自主思考可能給人類帶來的危害。他發(fā)表了超過200篇相關(guān)文章,還是業(yè)內(nèi)標(biāo)準(zhǔn)教科書《人工智能:現(xiàn)代方法》的合作作者之一。但當(dāng)下迅速發(fā)展的人工智能技術(shù)給Stuart帶來了長遠(yuǎn)的擔(dān)憂,而驚人的發(fā)展速度無疑加深了這種憂慮。Stuart表示目前的AI技術(shù)已經(jīng)有了長足的進(jìn)步,神經(jīng)元算法帶來的改善不容小視。這些智能算法被應(yīng)用在人臉識別系統(tǒng)、智能手機(jī)助理系統(tǒng)以及谷歌自動駕駛汽車中。甚至,《自然》雜志的一篇報道稱一個模擬神經(jīng)元人工智能網(wǎng)絡(luò)在一款A(yù)tari公司的游戲中的表現(xiàn)已經(jīng)超過了人類,而這個系統(tǒng)的輸入僅僅是電腦屏幕上顯示的內(nèi)容和一個“得到盡可能高的分?jǐn)?shù)”的目標(biāo)。沒有任何預(yù)設(shè)的程序,這個智能網(wǎng)絡(luò)懂得分辨屏幕上的外星人、子彈,會在合適的時機(jī)進(jìn)行左移、右移。

        《QUANTA》雜志采訪了Stuart,詢問了他對當(dāng)前人工智能發(fā)展的幾點看法。讓我們來看看該領(lǐng)域的大師如何評價這一革命性技術(shù)吧。

QUANTA:你為什么堅持人工智能研究必須以可證實對人類有益為前提?

        Stuart:我認(rèn)為這是一個錯誤的問題,因為“人類價值”不能被“證實”。當(dāng)然,人類價值本身也沒有準(zhǔn)確的定義,誰又知道人類為什么存在呢,可能這永遠(yuǎn)都是個迷。但考慮到我們?nèi)祟惖男袨榈囊饬x,你會希望機(jī)器人至少能體會到其中的大部分精髓。人工智能可能不能完全理解我們的所作所為,但它們至少要和我們站在同一戰(zhàn)線上,有著共同的基本原則。換句話說,它們不能成為我們的絆腳石甚至傷害我們。

QUANTA:你打算怎么實現(xiàn)這一點?

        Stuart:我現(xiàn)在正在這方面努力。目前我覺得一種名為“逆強(qiáng)化學(xué)習(xí)”的技術(shù)可以派上用場。平常的學(xué)習(xí)原理很簡單,基于你的表現(xiàn)好壞,你會得到獎勵或者懲罰,你的目標(biāo)也很明確,就是想方設(shè)法獲得盡可能多的獎勵。Atari的游戲就是一個這樣的典型的系統(tǒng)。逆向?qū)W習(xí)則是完全相反的過程,你首先得到結(jié)果,然后你去思考什么樣的行為最可能帶來這樣的結(jié)果。比如,你的機(jī)器人看到你早上艱難的從床上爬起來,沖了一杯咖啡,在一個嗡嗡作響的箱子里加熱了點煎餅,而且在吃這些東西時你臉上浮現(xiàn)出了愉快的深情,那么它的人工智能就會告訴它:人早上喝咖啡是好的。

        逆強(qiáng)化學(xué)習(xí)有著海量的資料可以使用,無論是書籍、電影還是網(wǎng)絡(luò),上面有著成千上萬的人類活動記錄,智能體可以從中感受到人類追求的基本價值和遵循的基本原則。

QUANTA:你的研究生涯主要關(guān)注了理解人工智能是什么,并認(rèn)為這是實現(xiàn)人工智能的前提。那么你目前有什么收獲呢?

        Stuart:在八十年代的研究中我開始思考理性決策的問題,后來我發(fā)現(xiàn)這是一個不可能完成的任務(wù)。如果你是理性的,你會判斷自己目前的狀況、可選擇做法、每種做法帶來的結(jié)果,但是又有哪一種做法是百分之百確保得到想要的結(jié)果的呢?世界上的事情變化多的讓人眼花繚亂,沒有那么多事是確定的。理性行為的定義就要求你的能力蓋過整個未來和宇宙,換句話說,它在計算上是不可能的。所以我換了思路:那么人類是怎樣做決定的呢?

QUANTA:人類怎么做的?

        Stuart:人類的大腦是一部效率驚人的概率運算機(jī)器。它的訣竅不是準(zhǔn)確掌握每一條信息,而是對未來有一個大概的預(yù)測,并推測最可能帶來好結(jié)果的做法。拿下棋來說,如果是理性決策的人,他就只會走那些可以將軍的棋子。現(xiàn)實中沒有人這么下棋,人們不會考慮十幾步之后的事情,他們會考慮幾個可能的走法,看哪一種最可能帶來優(yōu)勢。人一生大約會做20萬億的動作,做一次演講會有13億個動作,理性決策要求你預(yù)測13億個動作后的準(zhǔn)確狀況,這太瘋狂了。我們從不會想“我要先邁左腳再動右腳,再打開門……”而是想“我該去做演講了”。

QUANTA:你可以證明人工智能系統(tǒng)不會重寫自己的軟件,覆蓋人類預(yù)設(shè)的目標(biāo)嗎?

        Stuart:計算機(jī)程序有著許多不確定性。阿蘭圖靈曾指出一個計算機(jī)程序不可能判斷另一個程序是陷入了無限循環(huán)還是最終會產(chǎn)生輸出。因此,如果你有一個可以重寫自身的程序,你就有了一個矛盾,你不能證明這個新程序是否具有某些性質(zhì),這個程序也不知道自己寫了一個什么。所以,問題不是“AI是否會重寫自己”而是“AI寫出的程序會對我們有怎樣的影響”。我們目前對人工智能的設(shè)計能力所知甚少。

QUANTA:目前有什么很有前景的研究領(lǐng)域嗎?

        Stuart:最近出現(xiàn)了一種叫做“網(wǎng)絡(luò)現(xiàn)實系統(tǒng)”的研究領(lǐng)域,它們的研究內(nèi)容是計算機(jī)與現(xiàn)實世界相聯(lián),讓電腦通過網(wǎng)絡(luò)控制機(jī)器手臂等等。許多電影中出現(xiàn)了人工智能掌控交通的劇情,也是該領(lǐng)域的研究內(nèi)容。另外,空中交通管制也是其應(yīng)用的一種。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。