《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 可編程邏輯 > 業(yè)界動態(tài) > 美國專家:人工智能凜冬將至

美國專家:人工智能凜冬將至

2018-06-10
關(guān)鍵詞: 深度學習 通用AI 電腦視覺

深度學習(deep learning)技術(shù)問世后,許多人都相信這將是帶領(lǐng)我們逐步走入「通用AI」(general AI)夢想的關(guān)鍵,企業(yè)領(lǐng)導者也都在演講中談及AI 時代將會如何來臨,然而事情真的如此順利嗎?


電腦視覺與AI 領(lǐng)域?qū)<褾ilip Piekniewski 并不這么認為,近日在博客的一篇文章中,Piekniewski 也詳細談及對于現(xiàn)今AI 發(fā)展進度的看法,在他看來,已經(jīng)有許多跡象都顯示出AI 產(chǎn)業(yè)的「凜冬將至」。


Piekniewski指出,在ImageNet獲得不錯的解決方案時,許多該領(lǐng)域的知名研究人員都積極的受訪并采用相同的論調(diào)表示:人們正處在一場巨大的革命前面,從現(xiàn)在開始,所有AI發(fā)展只會加速。


然而許多年過去了,期待中的加速并未發(fā)生,這些受訪的研究人員也不再那么活躍的鼓吹相同的想法,隨著情緒降溫,他們開始不將深度學習形容為終極演算法,AI 相關(guān)論文也從「革命」一詞逐漸改變?yōu)椤高M化」。


相較起前者,進化聽起來要溫和且緩慢許多,而這似乎也更為符合AI 發(fā)展的現(xiàn)實情況。Piekniewski 指出,包含OpenAI 在內(nèi),許多知名研究單位近期都開始變得相對安靜,自AlphaGo Zoro 問世后Deepmind 也并未再展現(xiàn)任何更為驚奇的事物,甚至一些論述指出,Google 其實不太確定該如何處理Deepmind,因為團隊得出的研究成果明顯不如原先預期的「那么實際」。


除此之外,Piekniewski 也觀察到一些大型科技企業(yè)的杰出AI 研究人員,都開始從實際操作的研究負責人轉(zhuǎn)任至協(xié)助游說政府資助的職務(wù)上,他認為這種細微轉(zhuǎn)變跡象顯示,像是Google、Facebook 這些公司對AI 研究的興趣實際上正在慢慢收斂。


至于深度學習所面臨的瓶頸,Piekniewski 認為自動駕駛(self-driving)技術(shù)在現(xiàn)實世界的實際應(yīng)用便是最明顯的例子,除了Nvidia、Tesla 在發(fā)展自駕技術(shù)上都遇到困難, Uber 自駕車在亞利桑那州的死亡車禍更是能夠用來做最好的說明。


從NTSB的初步報告中,除了能明顯看出系統(tǒng)設(shè)計的問題之外,最為驚人的莫過于發(fā)現(xiàn)系統(tǒng)花費了很長一段時間,去試圖判斷眼前的物體究竟是什么(行人、腳踏車、車輛或其他),而不是做出在該情況下最重要、也是邏輯上唯一該做的決策:確保不會碰撞它。


這與人對危機的處理方式并不相同。Piekniewski 指出,盡管人們經(jīng)常在交通事故后說出當下的判斷標準,像是「我看到前方有騎士所以轉(zhuǎn)向左邊避開它」,但許多心理物理學(Psychophysics)文獻都曾經(jīng)提出解釋,人們往往是在當下透過神經(jīng)系統(tǒng)迅速將其判斷為障礙并采取行動,等到一小段時間過后才會意識到發(fā)生了什么,并試著將其組織為言語進行說明。


這并不僅限于駕駛行為,其實每天我們都會做出許多沒有言語化的的決定,因為言語化是「昂貴的」,需要花費時間,而現(xiàn)實生活中的許多情況并無法提供時間。


這種生存機制來源已久,數(shù)十億年來都保護著我們的安全,而在駕駛車輛時,人們自然也就使用到這樣的原始反應(yīng),由于這些反應(yīng)并非專為駕駛行為發(fā)展,自然偶爾也會因為這些反射神經(jīng)引發(fā)一些事故。然而整體上來說,這種對空間、速度及周遭警覺的原始能力,對于人類安全仍舊有著許多保障。


只是這種能力大多無法用言語來描述,也難以進行測量,這使得研究人員難以對機器進行這方面的系統(tǒng)改良,Nvidia 過去所提出的End-to-End 方法雖然理論上可行,但從現(xiàn)實一些測試中我們也可知道情況并非這么簡單。


在Piekniewski 看來,這些發(fā)展困境都表明著AI 發(fā)展的寒冬即將來臨,就像股市崩盤一樣,雖然不太可能準確說出發(fā)生的時間點,但你從某些明顯的跡象中,幾乎可以肯定它將會在某個時刻出現(xiàn),然而因為外界的呼聲太過強烈,以至于人們很容易就忽視掉這些征兆。


可想而知,一些研究人員應(yīng)該會對「凜冬將至」的說法感到憤怒,但Piekniewski 指出,過去已經(jīng)有許多知名研究者都警告過,群眾對于AI 關(guān)注的熱潮已有些過頭,就連Geoffrey Hinton 也曾在受訪時承認,反向傳播法(back-propagation)似乎已走入死胡同,相關(guān)研究可能得從頭開始展開。


然而,由于AI 炒作的風聲實在過于強大,以至于這位對神經(jīng)網(wǎng)路有著巨大貢獻、經(jīng)常被外界稱作深度學習之父者的聲音并沒有太多人真的聽見。


「究竟冬天會有多『嚴寒』?我不知道。接下來會發(fā)生什么?我不知道。但是我相當確定凜冬即將來臨,或許事情只會比我預想的更早發(fā)生?!?/p>


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。