《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 業(yè)界動(dòng)態(tài) > 機(jī)器人會(huì)威脅人類嗎?

機(jī)器人會(huì)威脅人類嗎?

2015-07-08

       隨著人工智能的不斷發(fā)展,一些科學(xué)家擔(dān)心:在不久的未來,人工智能技術(shù)會(huì)超越人類的智慧,甚至?xí)催^來控制或毀滅人類。對(duì)這一災(zāi)難性的預(yù)測(cè)來自一群 世界上公認(rèn)“最聰明的人”,包括微軟創(chuàng)始人比爾·蓋茨、英國(guó)科學(xué)家史蒂芬·霍金以及美國(guó)的“科技狂人”伊隆·馬斯克。甚至有學(xué)者認(rèn)為,人工智能超過人類的 時(shí)間點(diǎn)——“奇點(diǎn)”已經(jīng)逼近,很可能就在十幾年后。這一切真的會(huì)發(fā)生嗎?

  人類面臨的危險(xiǎn):機(jī)器人比人類還聰明

   什么樣的機(jī)器人才是有危險(xiǎn)的人工智能?英國(guó)計(jì)算機(jī)先驅(qū)阿蘭·圖靈設(shè)計(jì)了一個(gè)甄別實(shí)驗(yàn):一臺(tái)計(jì)算機(jī)和一個(gè)人做競(jìng)賽,說服一個(gè)看不到它們的觀察者,使其相信 自己才是真正的人類。當(dāng)機(jī)器人至少把半數(shù)觀察者蒙騙了,才算通過了測(cè)試。目前,尚無一臺(tái)計(jì)算機(jī)接近于通過測(cè)試。但圖靈也指出,當(dāng)超級(jí)智能機(jī)器人通過圖靈測(cè) 試時(shí),人類的報(bào)應(yīng)就來到了。

  人類所擔(dān)心的智能機(jī)器人是能夠像人一樣思考、行動(dòng)。這里行動(dòng)應(yīng)廣義地理解為采取行動(dòng),或制定行動(dòng)的決策,而不是肢體動(dòng)作,而且它們具有知覺和自我意識(shí)。

  人工智能對(duì)人類的毀滅能力是什么?牛津大學(xué)的研究人員給出了解釋,人工智能不是像核武器一樣消滅人類,而是會(huì)逐步取代人類,真正可怕的是智力。它們將比人類更聰明、更擅長(zhǎng)社交、更有工作能力。

  比爾·蓋茨說:“如果我們能夠很好地駕馭機(jī)器人,機(jī)器能夠?yàn)槿祟愒旄?,但如果若干年后機(jī)器發(fā)展得超過人類的智能,那么它們就將成為人類的心頭大患。”

  機(jī)器人會(huì)比人類還聰明嗎?

  機(jī)器的智商能有多高?機(jī)器是否會(huì)產(chǎn)生自我意識(shí)?機(jī)器人會(huì)比人類還聰明嗎?一些科學(xué)家認(rèn)為,機(jī)器人的智商超過人類是遲早的事情,甚至還有美國(guó)學(xué)者明確提出了人工智能超過人類的時(shí)間點(diǎn)。

   首位用“奇點(diǎn)”這一術(shù)語(yǔ)描述這種技術(shù)大變革的人是美國(guó)數(shù)學(xué)家、科幻小說家弗諾·文奇,此后,高科技企業(yè)家雷·庫(kù)茲韋爾在其著作《奇點(diǎn)迫近》一書中進(jìn)一步 提升了這一概念。庫(kù)茲韋爾認(rèn)為,技術(shù)的指數(shù)級(jí)發(fā)展將不可避免地導(dǎo)致超人類智能的出現(xiàn)。庫(kù)茲韋爾對(duì)自己的預(yù)測(cè)很有信心,他甚至將到達(dá)“奇點(diǎn)”的時(shí)間定為 2029年。到了2029年,電腦不僅能夠理解我們的語(yǔ)言,甚至能夠和我們開玩笑。1990年,庫(kù)茲韋爾預(yù)測(cè)稱電腦將在1998年之前打敗國(guó)際象棋冠軍。 1997年,IBM公司研制的電腦“深藍(lán)”成功擊敗國(guó)際象棋冠軍加里·卡斯帕羅夫。

  麻省理工學(xué)院的機(jī)器人學(xué)教授羅德尼·布魯克斯說: “在越過‘奇點(diǎn)’后,我們和我們的世界將與現(xiàn)在大不一樣,對(duì)什么是人、什么是機(jī)器人的定義也將變得不同。”一些未來學(xué)家稱,正如黑洞中心存在著一個(gè)讓一切 已知物理定律都失效的“奇點(diǎn)”一樣,信息技術(shù)也正在朝著這樣一個(gè)“奇點(diǎn)”邁進(jìn)。屆時(shí),人工智能機(jī)器將比其制造者——人更加聰明。這些未來學(xué)家認(rèn)為,過了這 個(gè)點(diǎn),一切都將以現(xiàn)在不可預(yù)測(cè)、無法想象的速度和形式發(fā)展了。人工智能奇點(diǎn)研究所的創(chuàng)辦人之一伊利澤·尤德庫(kù)斯基目前正在研究所謂的“友好人工智能”。他 說,他最擔(dān)心的是,一些科技怪才會(huì)發(fā)明一種能夠自我進(jìn)化但卻沒有道德感的機(jī)器人,這將給人類帶來災(zāi)難。

 機(jī)器人會(huì)毀滅人類嗎?

  一些科學(xué)家擔(dān)心:人工智能正在以令人害怕的步伐發(fā)展,它將導(dǎo)致人類走向最終的滅亡。

   不久前,著名科學(xué)家史蒂芬·霍金發(fā)出警告——未來100年內(nèi),人工智能將比人類更為聰明,機(jī)器人將控制人類?;艚鹪c特斯拉CEO伊隆·馬斯克共同發(fā)表 公開信,他們認(rèn)為,人工智能的發(fā)展應(yīng)該受到控制。信中稱,如果智能機(jī)器無法保障安全,人類可能陷入黑暗的未來。一方面人工智能讓人類越來越缺乏思考,另一 方面其自身則有可能越來越聰明,從而威脅到人類的生存。

  馬斯克也提出警告,最少只需5年,智能機(jī)器可能就會(huì)帶來極端危險(xiǎn)。他說:“應(yīng)該保持高度警惕。如果讓我猜測(cè)人類生存的最大威脅,那可能就是人工智能。”

   牛津大學(xué)哲學(xué)教授尼克·博斯特倫與詹姆斯·巴拉特認(rèn)為,“現(xiàn)在我們?nèi)祟惥拖褚蝗簲[弄著一顆危險(xiǎn)炸彈的無知孩童。即便是出于好意而創(chuàng)造的人工智能,它仍有 犯下種族滅絕罪行的傾向。如果沒有小心謹(jǐn)慎的制衡指令,一個(gè)有著自我意識(shí)、不斷自我完善并追尋目標(biāo)的系統(tǒng)將發(fā)展到在我們看來非常荒謬的程度,以完成它的目 標(biāo)”。

  不論如何,科學(xué)家認(rèn)為未來對(duì)于人工智能的制造,一定要將不得傷害人類設(shè)定為其最重要的行事規(guī)則。美國(guó)科幻小說家艾薩克·阿西莫夫在他的機(jī)器人相關(guān)小說中為機(jī)器人設(shè)定了行為準(zhǔn)則(也就是機(jī)器人三定律)——

  法則一,也是最為重要的一條法則:機(jī)器人不得傷害人類,也不得因不作為而使人類受到傷害;

  法則二,機(jī)器人必須服從人類的命令,除非違背第一法則;

  法則三,在不違背第一、二法則的前提下,機(jī)器人必須保護(hù)自己。

  機(jī)器人會(huì)成為我們的朋友?

   對(duì)于馬斯克、霍金等人的言論,谷歌董事長(zhǎng)施密特率先發(fā)起反駁。施密特的身份很特殊,作為谷歌的董事長(zhǎng),他曾親身參與許多世界上最復(fù)雜的人工智能系統(tǒng)的研 發(fā),從自動(dòng)駕駛汽車到谷歌的預(yù)測(cè)性搜索引擎等。施密特認(rèn)為,所有對(duì)機(jī)器將搶走人類工作、占領(lǐng)世界的恐懼都毫無根據(jù),并且希望人們能夠意識(shí)到:機(jī)器人會(huì)成為 我們的朋友。施密特說:“對(duì)于人工智能的擔(dān)憂,都是正常的。但是回顧歷史你會(huì)發(fā)現(xiàn),這些絕對(duì)是錯(cuò)誤的。歷史的經(jīng)驗(yàn)已經(jīng)證明,過去的經(jīng)濟(jì)繁榮時(shí)期,大多數(shù)是 因?yàn)椴捎眯录夹g(shù)而引發(fā)的。”

  科技取得突飛猛進(jìn)的成果時(shí),總是讓人感到害怕,但真正重要的是掌握技術(shù)的人??傊?,對(duì)于新技術(shù)的發(fā)展,難免會(huì)存在爭(zhēng)論,但科學(xué)的進(jìn)步總歸是為人類帶來更美好的未來。但是有一點(diǎn)卻不能忽視,隨著科學(xué)技術(shù)的進(jìn)步,自動(dòng)化的人工智能會(huì)越來越多地出現(xiàn)在我們的工作、生活中,機(jī)器代替人類工作很有可能在不遠(yuǎn)的將來成為現(xiàn)實(shí)。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。