《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 業(yè)界動態(tài) > 2018圖靈獎公布!深度學習三巨頭共享

2018圖靈獎公布!深度學習三巨頭共享

2019-03-29

剛剛,ACM 公布 2018 年圖靈獎得主是 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun 三位深度學習巨頭。

微信圖片_20190329143049.jpg



據官方公告介紹,因三位巨頭在深度神經網絡概念和工程上的突破,使得 DNN 成為計算的一個重要構成,從而成為 2018 年圖靈獎得主。


這是圖靈獎十年來第三次頒給機器學習領域的杰出貢獻者了:2011 年圖靈獎得主為 Judea Pearl,他開發(fā)的概率與因果推理微積分(calculus for probabilistic and causal reasoning)為人工智能發(fā)展做出了重大貢獻。Leslie Gabriel Valiant 獲得了 2010 年圖靈獎,他為計算理論的發(fā)展作出了變革性貢獻,包括 PAC 學習理論、并行與分布計算理論等。

微信圖片_20190329143110.jpg


相信讀者對這三位巨頭的名字已經耳熟能詳。


Yoshua Bengio 是蒙特利爾大學教授、魁北克人工智能機構 Mila 的科學主管。Geoffrey Hinton 是谷歌副總裁、工程研究員,也是 Vector Institute 的首席科學顧問、多倫多大學 Emeritus 榮譽教授。Yann LeCun 是紐約大學教授、Facebook 副總裁和首席 AI 科學家。


或是獨立或是協(xié)作,Hinton、LeCun 和 Bengio 開發(fā)了深度學習領域的概念基礎,并通過實驗驗證了令人驚訝的現象,此外,他們還貢獻了一些工程進展,展示了深度神經網絡的實用優(yōu)勢。近年來,深度學習方法促進計算機視覺、語音識別、自然語言處理和機器人技術等應用領域取得極大突破。


雖然在 20 世紀 80 年代,研究者就引入了人工神經網絡幫助計算機識別模式、模擬人類智能,但一直到 21 世紀初,LeCun、Hinton 和 Bengio 這樣一小撮研究者仍然堅持這種方法。雖然一開始,他們重燃人工智能社區(qū)對神經網絡興趣的努力遭到了懷疑,但如今他們的想法帶來了重大的技術進步,他們的方法也已成為該領域的主導范式。


圖靈獎是計算機協(xié)會(ACM)于 1966 年設立的獎項,專門獎勵對計算機事業(yè)作出重要貢獻的個人,有「計算機界諾貝爾獎」之稱,獎金為 100 萬美元,由谷歌公司贊助。圖靈獎的名稱取自英國數學家艾倫·圖靈(Alan M. Turing),他奠定了計算機的數學基礎和局限性。


ACM 主席 Cherri M. Pancake 表示,「人工智能如今是整個科學界發(fā)展最快的領域之一,也是社會上討論最廣的主題之一。AI 的發(fā)展、人們對 AI 的興趣,很大程度上是因為深度學習的近期進展,而 Bengio、Hinton 和 LeCun 為此奠定了重要基礎。這些技術如今已被數十億人使用。通過口袋中的手機,人們能夠體驗到 10 年前不可能體驗的自然語言處理和計算機視覺技術。除了我們每天使用到的產品,深度學習的最新進展也為醫(yī)療、天文、材料科學等各個領域的科學家們帶來了強大的新型工具。


「深度神經網絡促進了現代計算機科學的極大進步,在解決計算機視覺、語音識別和自然語言處理領域中的長期問題方面取得了極大進展?!笹oogle AI 負責人 Jeff Dean 表示,「該進展的核心得益于今年圖靈獎得主 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun 30 多年前開發(fā)的基礎技術。深度神經網絡顯著提升了計算機感知世界的能力,它不僅改變了計算領域,也幾乎改變了科學和人類奮斗的所有領域?!?/p>


機器學習、神經網絡和深度學習


傳統(tǒng)計算中,計算機程序使用明確的一步步指令指引計算機。而在深度學習這一 AI 研究子領域中,計算機并未得到關于如何解決特定任務的顯式說明。深度學習使用學習算法從數據中提取輸入數據與期望輸出的關聯(lián)模式,比如輸入數據為圖像像素,輸出為標簽「貓」。研究者面臨的挑戰(zhàn)是開發(fā)出高效的學習算法,修改神經網絡中連接的權重以使它能夠捕捉到數據中的關聯(lián)模式。


自 20 世紀 80 年代開始,Geoffrey Hinton 就開始提倡使用機器學習方法進行人工智能研究,他希望通過人腦運作方式探索機器學習系統(tǒng)。受人腦的啟發(fā),他和其他研究者提出了「人工神經網絡」(artificial neural network),為機器學習研究奠定了基石。


在計算機科學領域,「神經網絡」指由多個簡單計算元素(神經元)層所組成的系統(tǒng)。這些「神經元」僅僅大致地模仿了人腦中的神經元,但卻能通過加權連接互相影響。通過改變連接的權重來改變神經網絡所執(zhí)行的計算。Hinton、LeCun 和 Bengio 認識到使用多層深度網絡的重要性,即「深度學習」。


由于 GPU 計算機的普及和海量數據的獲取,Hinton、LeCun 和 Bengio 在 30 年中所奠定的概念基礎和工程實踐得到了極大提升。近年來,多種因素導致計算機視覺、語音識別和機器翻譯等技術出現了跳躍式發(fā)展。


Hinton、LeCun 和 Bengio 也曾合作過。LeCun 曾在 Hinton 的指導下完成博士后工作,20 世紀 90 年代,LeCun 和 Bengio 都在貝爾實驗室工作。即使不在一起工作的時候,他們的研究中也存在協(xié)同和相互關聯(lián)性,他們對彼此產生了巨大的影響。


這三位大牛目前繼續(xù)探索機器學習與神經科學和認知科學之間的交叉領域,最著名的是他們共同參與了加拿大高級研究所(CIFAR)的「機器與大腦學習計劃(Learning in Machines and Brains program)。


主要技術成就


今年圖靈獎得主的技術成就帶來了 AI 技術的極大突破,包括但不限于以下成果。


Geoffrey Hinton

微信圖片_20190329143127.jpg



ACM 表示 Geoffrey E Hinton 主要有三大重要貢獻:


反向傳播

玻爾茲曼機

對卷積神經網絡的修正


在 1986 年的一篇論文中,Hinton 與 David Rumelhart 和 Ronald Williams 提出了反向傳播,這篇論文即著名的《Learning Internal Representations by Error Propagation》。Hinton 等研究者表示反向傳播算法允許神經網絡探索數據內部的深層表征,因此神經網絡才能解決以前被認為無法解決的問題。反向傳播目前已經成為訓練深度神經網絡所必需的算法。


1983 年,Hinton 和 Terrence Sejnowski 提出了玻爾茲曼機,它是第一個能學習神經元內部表征的深度神經網絡,這種表征既不是輸入也不是輸出的一部分。


到了 2012 年,Hinton 與他的學生 Alex Krizhevsky 和 Ilya Sutskever 為卷積神經網絡的發(fā)展做出了重要貢獻。他們率先使用修正線性神經元(ReLU)和 Dropout 正則化大大提升了深度卷積神經網絡的性能。在當年的 ImageNet 競賽中,Hinton 和他的學生幾乎將圖像識別的誤差率減半,這一次挑戰(zhàn)賽重塑了計算機視覺領域。


Yoshua Bengio

微信圖片_20190329143149.jpg



ACM 表示 Yoshua Bengio 主要有三大重要貢獻:


序列的概率建模

高維詞嵌入與注意力機制

生成對抗網絡


在上個世紀九十年代,Bengio 提出將神經網絡與序列的概率建模相結合,例如隱馬爾可夫模型這種序列的概率建模方法。這些創(chuàng)新觀點被 AT&T/NCR 所接受,并用于閱讀手寫支票,該系統(tǒng)被認為是九十年代神經網絡研究的巔峰之作,現代基于深度學習的語音識別系統(tǒng)都是在這些概念上繼續(xù)擴展的。


在 2000 年,Bengio 等研究者發(fā)表了一篇具有里程碑意義的論文《A Neural Probabilistic Language Model》,該論文引入了高維詞嵌入作為詞義的表征方法。Bengio 的觀點對自然語言處理任務產生了巨大而持久的影響,包括機器翻譯、知識問答、視覺問答等等。他的研究團隊還提出了一種注意力機制,該方法直接導致了機器翻譯領域的突破,并構成了深度學習序列建模的關鍵組成部分。


自 2010 年以來,Bengio 非常關注生成式深度學習,特別是他與 Ian Goodfellow 等研究者提出的生成對抗網絡(GAN),這項研究引起了計算機視覺和計算機圖形學的革命。這項工作令人驚奇的地方在于,計算機能生成與原始圖像相媲美的圖像,這難免讓人聯(lián)想到人類水平的創(chuàng)造力。


Yann LeCun

微信圖片_20190329143213.jpg



ACM 表示 Yann LeCun 主要有三大重要貢獻:


提出卷積神經網絡

改進反向傳播算法

拓寬神經網絡的視角


20 世紀 80 年代,LeCun 構建了卷積神經網絡,這是該領域的一項重要理論,對于提高深度學習效率至關重要。20 世紀 80 年代后期,LeCun 就職于多倫多大學和貝爾實驗室,也是在這一時期,它利用手寫數字圖像訓練了第一個卷積神經網絡系統(tǒng)。如今,卷積神經網絡已成為計算機視覺、語音識別、語音合成、圖像合成和自然語言處理領域的行業(yè)標準。卷積神經網絡有著廣泛的應用,如自動駕駛、醫(yī)學圖像分析、語音助手和信息過濾等。


改進反向傳播算法,LeCun 提出了一個早期版本的反向傳播算法(backprop),并基于變分原理給出了一個清晰的推導。他加速反向傳播算法的工作包括描述加快學習速度的兩個簡單方法。


LeCun 的貢獻還包括拓寬神經網絡的研究視角,他將神經網絡發(fā)展為一種計算模型,用到一系列任務中,他早期工作中的一些概念已成為 AI 發(fā)展的基石。例如,在圖像識別領域,他研究了如何在神經網絡中學習分層特征表征——這一概念現在經常用于許多識別任務。他和 Leon Bottou 一起提出:學習系統(tǒng)可以被構建為復雜的模塊網絡,在這個網絡中,反向傳播通過自動微分來執(zhí)行,這一理念用在每一個現代深度學習軟件中。他們還提出了可以處理結構化數據的深度學習架構,如「圖」(graph)。


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。