我們需要告訴Siri,不要思考太多問題,只需要聽話就好。當(dāng)然,偶爾來上一點段子也無傷大雅,重要的是,我們必須確保Siri的立場與我們的一致。
上面的這段話是不是看起來很奇怪?這是根據(jù)史蒂夫·霍金博士(Stephen Hawking)最新的言論有感而發(fā)的。本周二,在倫敦舉辦的2015年度時代思潮大會上,這位有負(fù)盛名的物理學(xué)家以及末日預(yù)言者為人類的最終結(jié)局發(fā)表了新的看法。
據(jù)Techworld報道,霍金表示:“計算機具備的人工智能將會在未來100年中的某個時點超越人類的智能。當(dāng)這種情形發(fā)生時,我們必須確保計算機是站在人類這邊的?!?/p>
顯然,我們現(xiàn)在就需要確保這一點,之后便可以坐等計算機的智能超過我們自身的。
然而,我們很難預(yù)測,具備智能的計算機會走向何方?
霍金早前就警告說,人工智能是人類歷史上出現(xiàn)過的最可怕的事物。
周二,霍金說道:“我們的未來是在日益崛起的科技力量與我們試圖掌控它們之間的一場競賽。”
但是,至少有一件事情我們現(xiàn)在就知道,那就是:我們不能相信自己。我們的本性中埋藏著各種扭曲事物,使我們傾向于創(chuàng)造出最終會毀滅我們自己的怪物——首先從精神上,然后是肉體。
當(dāng)我們發(fā)明了核武器時,我們?nèi)匀皇褂昧艘?、兩件,為的只是看看效果如何。因此,?dāng)?shù)谝粋€真正具備自主思維能力和行為能力的機器人出現(xiàn)時,這個世界究竟會變成何種情形?參照人類的過往歷史,答案不容樂觀。
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。