變害為利" title="變害為利" target="_blank" a="" class="innerlink" data-link="" style="margin: 0px auto; padding: 0px; border: 1px solid rgb(231, 231, 231); display: block;"/> 馬斯克又發(fā)出警告稱,人工智能對(duì)人類的危害將可能與核武器相提并論。不過(guò),從另一角度來(lái)看,人工智能是否也有希望接受一種宗教形式,通過(guò)忠誠(chéng)的信仰讓人工智能變害為利,盡量多做對(duì)人類有益的事,減輕對(duì)人類的危害?
本田仿真機(jī)器人Asimo與真人握手致意。
據(jù)國(guó)外媒體報(bào)道,許多科學(xué)家認(rèn)為,人工智能即將在近幾年內(nèi)成為現(xiàn)實(shí),而不是幾十年后。美國(guó)Spacex太空探索技術(shù)公司首席執(zhí)行官兼首席技術(shù)官埃隆-馬斯克此前多次就人工智能發(fā)表警示性言論。近日,馬斯克又發(fā)出警告稱,人工智能對(duì)人類的危害將可能與核武器相提并論。不過(guò),從另一角度來(lái)看,人工智能是否也有希望接受一種宗教形式,通過(guò)忠誠(chéng)的信仰讓人工智能變害為利,盡量多做對(duì)人類有益的事,減輕對(duì)人類的危害?通過(guò)與眾多科學(xué)家進(jìn)行深入探討,人工智能專家迪倫-勒夫近日發(fā)表了一份深度研究報(bào)告,嘗試探索這個(gè)問(wèn)題的答案。
摩門(mén)超人協(xié)會(huì)董事長(zhǎng)林肯-卡農(nóng)認(rèn)為,計(jì)算機(jī)科學(xué)世界里如果沒(méi)有“法”的概念,那么軟件也就不可能擁有宗教信仰。“當(dāng)然,一些反宗教人士更愿意認(rèn)為,機(jī)器智能與宗教信仰之間存在技術(shù)上的‘不兼容性’?!眰惱砼c新技術(shù)研究所研究員約翰-梅瑟利則認(rèn)為,“我設(shè)想一下,你應(yīng)該專門(mén)為一臺(tái)人工智能機(jī)器編寫(xiě)一個(gè)程序,讓其‘相信’幾乎所有的事情?!笨ㄞr(nóng)認(rèn)為,擁有宗教信仰的超級(jí)人工智能可能是最極端的人工智能,要么是最好的那類,要么是最壞的那類?!耙?yàn)樽诮讨皇且环N力量,可以用來(lái)做善事,也可能成為邪惡的幫兇。宗教并非全是良性的,那么超級(jí)人工智能的任何宗教價(jià)值觀也可能更可怕。”
瑞典哲學(xué)家、未來(lái)學(xué)家尼克-波斯頓認(rèn)為,最大的憂慮是,隨著人工智能變得越來(lái)越聰明,它就會(huì)為了自己繼續(xù)存在而選擇一條道路,這就意味著人性的毀滅。佛羅里達(dá)州長(zhǎng)老會(huì)牧師克里斯托夫-本內(nèi)克博士認(rèn)為,宗教可以幫助人工智能與人類和諧相處。“這是上帝所有創(chuàng)造物的一種救贖,包括人工智能。如果人工智能有自主權(quán),那么我們應(yīng)該鼓勵(lì)它參與到基督的救贖中。”因此,本內(nèi)克的觀點(diǎn)又引出了另一個(gè)話題,那就是人工智能是否會(huì)有靈魂。
上個(gè)月,美國(guó)Spacex太空探索技術(shù)公司首席執(zhí)行官兼首席技術(shù)官埃隆-馬斯克聯(lián)合1000多位機(jī)器人專家聯(lián)署公開(kāi)信,警告稱未來(lái)的自主性武器將可能成為明天的AK47。
人工智能是否會(huì)有靈魂?
佛羅里達(dá)州長(zhǎng)老會(huì)牧師克里斯托夫-本內(nèi)克博士認(rèn)為,宗教可以幫助人工智能與人類和諧相處。
麻省理工學(xué)院科學(xué)家馬文-明斯克教授是人工智能領(lǐng)域的先驅(qū)者。明斯克表示,“人類的大腦比其它動(dòng)物的大腦更大更復(fù)雜,雖然鯨的大腦體積上比人類大腦大,但它的結(jié)構(gòu)復(fù)雜程度要比人類大腦差得多。如果你能夠讓一臺(tái)計(jì)算機(jī)自己思考或讓一群計(jì)算機(jī)自己合作,那么它們首先想到的應(yīng)該是它們究竟從哪里來(lái),它們究竟是什么?!比绻斯ぶ悄軝C(jī)器人真的擁有了靈魂,并被轉(zhuǎn)化為宗教思想,那么它們就有可能介入到世界的各種沖突中去,這才是值得擔(dān)憂的。
基督教神學(xué)家詹姆斯-邁克格雷斯發(fā)表一篇題為《機(jī)器人、權(quán)利與宗教》的研究論文。文章指出,“在所有可能性中,如果機(jī)器人有意成為極端自由主義者,那么它們可能很快發(fā)現(xiàn)原教旨主義的可選擇性,并拋棄它。有一種可能性就是,它們會(huì)繼續(xù)尋求從所有細(xì)節(jié)方面強(qiáng)制施行所有《圣經(jīng)》法律。這才是讓我們真正擔(dān)憂的?!?/p>
本內(nèi)克還表示,“我認(rèn)為,我們不應(yīng)假想人工智能會(huì)比我們?nèi)祟惛鼔?,或者它們?huì)有意威脅我們。如果它們真的比人類更加智能,那么它們應(yīng)該比我們更懂得倫理與道德。這就意味著,人工智能反而可能會(huì)消滅貧窮、戰(zhàn)爭(zhēng)、饑餓和疾病等,這些恰恰是人類一直未能解決的問(wèn)題。誰(shuí)敢說(shuō)未來(lái)有一天人工智能無(wú)法帶領(lǐng)人類登上圣座新高度?”