剛剛,ACM 公布 2018 年圖靈獎得主是 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun 三位深度學習巨頭。
據官方公告介紹,因三位巨頭在深度神經網絡概念和工程上的突破,使得 DNN 成為計算的一個重要構成,從而成為 2018 年圖靈獎得主。
這是圖靈獎十年來第三次頒給機器學習領域的杰出貢獻者了:2011 年圖靈獎得主為 Judea Pearl,他開發(fā)的概率與因果推理微積分(calculus for probabilistic and causal reasoning)為人工智能發(fā)展做出了重大貢獻。Leslie Gabriel Valiant 獲得了 2010 年圖靈獎,他為計算理論的發(fā)展作出了變革性貢獻,包括 PAC 學習理論、并行與分布計算理論等。
相信讀者對這三位巨頭的名字已經耳熟能詳。
Yoshua Bengio 是蒙特利爾大學教授、魁北克人工智能機構 Mila 的科學主管。Geoffrey Hinton 是谷歌副總裁、工程研究員,也是 Vector Institute 的首席科學顧問、多倫多大學 Emeritus 榮譽教授。Yann LeCun 是紐約大學教授、Facebook 副總裁和首席 AI 科學家。
或是獨立或是協(xié)作,Hinton、LeCun 和 Bengio 開發(fā)了深度學習領域的概念基礎,并通過實驗驗證了令人驚訝的現象,此外,他們還貢獻了一些工程進展,展示了深度神經網絡的實用優(yōu)勢。近年來,深度學習方法促進計算機視覺、語音識別、自然語言處理和機器人技術等應用領域取得極大突破。
雖然在 20 世紀 80 年代,研究者就引入了人工神經網絡幫助計算機識別模式、模擬人類智能,但一直到 21 世紀初,LeCun、Hinton 和 Bengio 這樣一小撮研究者仍然堅持這種方法。雖然一開始,他們重燃人工智能社區(qū)對神經網絡興趣的努力遭到了懷疑,但如今他們的想法帶來了重大的技術進步,他們的方法也已成為該領域的主導范式。
圖靈獎是計算機協(xié)會(ACM)于 1966 年設立的獎項,專門獎勵對計算機事業(yè)作出重要貢獻的個人,有「計算機界諾貝爾獎」之稱,獎金為 100 萬美元,由谷歌公司贊助。圖靈獎的名稱取自英國數學家艾倫·圖靈(Alan M. Turing),他奠定了計算機的數學基礎和局限性。
ACM 主席 Cherri M. Pancake 表示,「人工智能如今是整個科學界發(fā)展最快的領域之一,也是社會上討論最廣的主題之一。AI 的發(fā)展、人們對 AI 的興趣,很大程度上是因為深度學習的近期進展,而 Bengio、Hinton 和 LeCun 為此奠定了重要基礎。這些技術如今已被數十億人使用。通過口袋中的手機,人們能夠體驗到 10 年前不可能體驗的自然語言處理和計算機視覺技術。除了我們每天使用到的產品,深度學習的最新進展也為醫(yī)療、天文、材料科學等各個領域的科學家們帶來了強大的新型工具。
「深度神經網絡促進了現代計算機科學的極大進步,在解決計算機視覺、語音識別和自然語言處理領域中的長期問題方面取得了極大進展?!笹oogle AI 負責人 Jeff Dean 表示,「該進展的核心得益于今年圖靈獎得主 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun 30 多年前開發(fā)的基礎技術。深度神經網絡顯著提升了計算機感知世界的能力,它不僅改變了計算領域,也幾乎改變了科學和人類奮斗的所有領域?!?/p>
機器學習、神經網絡和深度學習
傳統(tǒng)計算中,計算機程序使用明確的一步步指令指引計算機。而在深度學習這一 AI 研究子領域中,計算機并未得到關于如何解決特定任務的顯式說明。深度學習使用學習算法從數據中提取輸入數據與期望輸出的關聯(lián)模式,比如輸入數據為圖像像素,輸出為標簽「貓」。研究者面臨的挑戰(zhàn)是開發(fā)出高效的學習算法,修改神經網絡中連接的權重以使它能夠捕捉到數據中的關聯(lián)模式。
自 20 世紀 80 年代開始,Geoffrey Hinton 就開始提倡使用機器學習方法進行人工智能研究,他希望通過人腦運作方式探索機器學習系統(tǒng)。受人腦的啟發(fā),他和其他研究者提出了「人工神經網絡」(artificial neural network),為機器學習研究奠定了基石。
在計算機科學領域,「神經網絡」指由多個簡單計算元素(神經元)層所組成的系統(tǒng)。這些「神經元」僅僅大致地模仿了人腦中的神經元,但卻能通過加權連接互相影響。通過改變連接的權重來改變神經網絡所執(zhí)行的計算。Hinton、LeCun 和 Bengio 認識到使用多層深度網絡的重要性,即「深度學習」。
由于 GPU 計算機的普及和海量數據的獲取,Hinton、LeCun 和 Bengio 在 30 年中所奠定的概念基礎和工程實踐得到了極大提升。近年來,多種因素導致計算機視覺、語音識別和機器翻譯等技術出現了跳躍式發(fā)展。
Hinton、LeCun 和 Bengio 也曾合作過。LeCun 曾在 Hinton 的指導下完成博士后工作,20 世紀 90 年代,LeCun 和 Bengio 都在貝爾實驗室工作。即使不在一起工作的時候,他們的研究中也存在協(xié)同和相互關聯(lián)性,他們對彼此產生了巨大的影響。
這三位大牛目前繼續(xù)探索機器學習與神經科學和認知科學之間的交叉領域,最著名的是他們共同參與了加拿大高級研究所(CIFAR)的「機器與大腦學習計劃(Learning in Machines and Brains program)。
主要技術成就
今年圖靈獎得主的技術成就帶來了 AI 技術的極大突破,包括但不限于以下成果。
Geoffrey Hinton
ACM 表示 Geoffrey E Hinton 主要有三大重要貢獻:
反向傳播
玻爾茲曼機
對卷積神經網絡的修正
在 1986 年的一篇論文中,Hinton 與 David Rumelhart 和 Ronald Williams 提出了反向傳播,這篇論文即著名的《Learning Internal Representations by Error Propagation》。Hinton 等研究者表示反向傳播算法允許神經網絡探索數據內部的深層表征,因此神經網絡才能解決以前被認為無法解決的問題。反向傳播目前已經成為訓練深度神經網絡所必需的算法。
1983 年,Hinton 和 Terrence Sejnowski 提出了玻爾茲曼機,它是第一個能學習神經元內部表征的深度神經網絡,這種表征既不是輸入也不是輸出的一部分。
到了 2012 年,Hinton 與他的學生 Alex Krizhevsky 和 Ilya Sutskever 為卷積神經網絡的發(fā)展做出了重要貢獻。他們率先使用修正線性神經元(ReLU)和 Dropout 正則化大大提升了深度卷積神經網絡的性能。在當年的 ImageNet 競賽中,Hinton 和他的學生幾乎將圖像識別的誤差率減半,這一次挑戰(zhàn)賽重塑了計算機視覺領域。
Yoshua Bengio
ACM 表示 Yoshua Bengio 主要有三大重要貢獻:
序列的概率建模
高維詞嵌入與注意力機制
生成對抗網絡
在上個世紀九十年代,Bengio 提出將神經網絡與序列的概率建模相結合,例如隱馬爾可夫模型這種序列的概率建模方法。這些創(chuàng)新觀點被 AT&T/NCR 所接受,并用于閱讀手寫支票,該系統(tǒng)被認為是九十年代神經網絡研究的巔峰之作,現代基于深度學習的語音識別系統(tǒng)都是在這些概念上繼續(xù)擴展的。
在 2000 年,Bengio 等研究者發(fā)表了一篇具有里程碑意義的論文《A Neural Probabilistic Language Model》,該論文引入了高維詞嵌入作為詞義的表征方法。Bengio 的觀點對自然語言處理任務產生了巨大而持久的影響,包括機器翻譯、知識問答、視覺問答等等。他的研究團隊還提出了一種注意力機制,該方法直接導致了機器翻譯領域的突破,并構成了深度學習序列建模的關鍵組成部分。
自 2010 年以來,Bengio 非常關注生成式深度學習,特別是他與 Ian Goodfellow 等研究者提出的生成對抗網絡(GAN),這項研究引起了計算機視覺和計算機圖形學的革命。這項工作令人驚奇的地方在于,計算機能生成與原始圖像相媲美的圖像,這難免讓人聯(lián)想到人類水平的創(chuàng)造力。
Yann LeCun
ACM 表示 Yann LeCun 主要有三大重要貢獻:
提出卷積神經網絡
改進反向傳播算法
拓寬神經網絡的視角
20 世紀 80 年代,LeCun 構建了卷積神經網絡,這是該領域的一項重要理論,對于提高深度學習效率至關重要。20 世紀 80 年代后期,LeCun 就職于多倫多大學和貝爾實驗室,也是在這一時期,它利用手寫數字圖像訓練了第一個卷積神經網絡系統(tǒng)。如今,卷積神經網絡已成為計算機視覺、語音識別、語音合成、圖像合成和自然語言處理領域的行業(yè)標準。卷積神經網絡有著廣泛的應用,如自動駕駛、醫(yī)學圖像分析、語音助手和信息過濾等。
改進反向傳播算法,LeCun 提出了一個早期版本的反向傳播算法(backprop),并基于變分原理給出了一個清晰的推導。他加速反向傳播算法的工作包括描述加快學習速度的兩個簡單方法。
LeCun 的貢獻還包括拓寬神經網絡的研究視角,他將神經網絡發(fā)展為一種計算模型,用到一系列任務中,他早期工作中的一些概念已成為 AI 發(fā)展的基石。例如,在圖像識別領域,他研究了如何在神經網絡中學習分層特征表征——這一概念現在經常用于許多識別任務。他和 Leon Bottou 一起提出:學習系統(tǒng)可以被構建為復雜的模塊網絡,在這個網絡中,反向傳播通過自動微分來執(zhí)行,這一理念用在每一個現代深度學習軟件中。他們還提出了可以處理結構化數據的深度學習架構,如「圖」(graph)。