這幾日,只要提起AlphaGo,相信大家想起的一定是在前幾日的圍棋大賽中,無論是單人戰(zhàn),雙人戰(zhàn),還是群毆戰(zhàn),AlphaGo都無一例外的身居“常勝將軍”位,而AlphaGo的創(chuàng)作團隊公司Deep mind在官網(wǎng)宣布這次的圍棋峰會將是AlphaGo的最后一次比賽。那么,不進行圍棋賽的AlphaGo還可以做什么呢?OpenAI研究科學家,斯坦福大學的CS博士生Andrej Karpathy就AlphaGo在機器人領域的應用發(fā)表了一些他的看法,機器人圈整理編譯如下:
我有機會和幾個人聊了一聊近期與AlphaGo柯潔等人的比賽。尤其是,媒體報道內(nèi)容大部分是大眾科學+PR的混合體,所以我看到的最常見的問題是“AlphaGo的突破性表現(xiàn)在哪里”,“AI的研究人員如何看待它的勝利?”和“勝利將取得什么樣的影響”。我把我的一些想法寫成文章與大家分享。
很酷的部分
AlphaGo由許多相對標準的技術(shù)組成:行為克?。▽θ祟愓故镜臄?shù)據(jù)進行監(jiān)督學習)、強化學習(REINFORCE)、價值函數(shù)和蒙特卡洛樹搜索(MCTS)。然而,這些組件的組合方式是極具創(chuàng)新,并不是完全標準的。特別是,AlphaGo使用SL(監(jiān)督學習)策略來初始化RL(強化學習)策略得到完善自我發(fā)揮,然后他們預估價值函數(shù),然后將其插入到MCTS中使用(更糟糕但更多樣化的)SL策略展示出來。另外,策略/價值網(wǎng)是深度神經(jīng)網(wǎng)絡,所以使一切正常工作都能呈現(xiàn)自己獨特的挑戰(zhàn)(例如,價值功能以一種棘手的方式進行培訓以防止過度擬合)。在所有這些方面,DeepMind都執(zhí)行得很好。話雖如此,AlphaGo本身并沒有使用任何基本的算法突破來解決強化學習的難題。
狹義范疇
AlphaGo還是一個狹義的AI系統(tǒng),會下圍棋,但也僅此而已。來自DeepMind的ATARI玩家不會使用AlphaGo所采取的方法,神經(jīng)圖靈機(Neural Turing Machines)與AlphaGo無關,Google數(shù)據(jù)中心的改進也絕對不會使用AlphaGo,同時,Google搜索引擎也不會使用AlphaGo。因此,AlphaGo不會推廣到圍棋以外的任何地方,但是人們和潛在的神經(jīng)網(wǎng)絡組件做的比這些過去的人工智能要好得多,每個演示都需要專門的顯式代碼的存儲庫。
圍棋的便利屬性
我想通過明確地列出圍棋所具有的特定屬性來擴展AlphaGo的狹義性,AlphaGo從中受益匪淺。這可以幫助我們考慮是否推廣AlphaGo。圍棋是:
1、完全確定性。游戲規(guī)則中沒有噪音;如果兩位玩家采取相同的動作順序,那么后面的狀態(tài)將永遠是一樣的。
2、充分觀察。每個玩家都有完整的信息,沒有隱藏的變量。例如,德州撲克(Texas hold’em)對該屬性不滿意,因為看不到其他玩家的牌。
3、動作空間是離散的。一些獨特的棋子移動是很有效的。相比之下,在機器人技術(shù)中,你可能希望在每個節(jié)點都需要具有連續(xù)性的控制。
4、我們有一個完美的模擬器(游戲本身),所以任何動作的效果都是公開透明的。這是一個強有力的假設,AlphaGo依然非常強大,但這種情形在現(xiàn)實世界中也是相當罕見的。
5、每一盤棋時間相對較短,約200手。相對于強化學習階段,與其他可能涉及每局的數(shù)千(或更多)手相比,這是一個相對較短的時間范圍。
6、評估清晰、快速,允許大量的試錯體驗。換句話說,玩家可以體驗數(shù)百萬次的勝利/失敗,這樣就可以慢慢而可靠地深入學習,就像深度神經(jīng)網(wǎng)絡優(yōu)化一樣。
7、有大量的人類玩游戲棋譜數(shù)據(jù)可用于引導學習,所以AlphaGo不必從頭開始。
AlphaGo應用于機器人技術(shù)?
以上列舉了圍棋的一些吸引人的屬性,讓我們來看一下機器人問題,看看我們?nèi)绾螌lphaGo應用到機器人中,例如亞馬遜揀選機器人中。這個問題只是想想就覺得有點滑稽。
·首先,你的動作(高維度、連續(xù))由機器人的電機笨拙/嘈雜地執(zhí)行。(違反1、3)
·機器人可能必須環(huán)顧要移動的物品,因此并不總是能感知所有相關信息,并且有時需要根據(jù)需要收集。(違反2)
·我們可能有一個物理模擬器,但是這些模擬器是非常不完美的(尤其是模擬接觸力的東西);這帶來了自己的一些挑戰(zhàn)(違反4)。
·取決于你的行動空間抽象程度(原始扭矩 - >夾子的位置),一個成功的動作片段可能比200個動作長得多(即5取決于設置)。更長的動作片段增加了信用分配問題,學習算法難以在任何結(jié)果的行動中分配責任。
·由于我們在現(xiàn)實世界中運作,機器人在數(shù)百萬次的時間內(nèi)(成功/失?。兊酶永щy。方法之一是并聯(lián)機器人,但這可能非常昂貴。此外,機器人失敗可能涉及機器人本身的損害。另一種方法是使用模擬器,然后轉(zhuǎn)移到現(xiàn)實世界中,但這會在域名轉(zhuǎn)移中帶來自己的一套新的、不平凡的挑戰(zhàn)。(違反6)
·最后,很少有數(shù)百萬可以展示的人類數(shù)據(jù)源。(違反7)
簡而言之,基本上每個單一的假設,即圍棋的便利屬性都被AlphaGo違背了,任何成功的方法都將看起來都不一樣了。更普遍的是,上面圍棋的一些屬性與當前的算法(例如1、2、3)并不是不可克服的,有些是存在問題(5、7),但是有些對于AlphaGo的訓練是非常關鍵的,但是很少存在于其他真實世界的應用(4、6)。
結(jié)論
雖然AlphaGo并沒有在AI算法中并沒有實現(xiàn)根本性的突破,雖然它仍然是狹隘人工智能的一個例子,但AlphaGo也象征著Alphabet的AI能力:公司的人才數(shù)量/質(zhì)量、他們掌握的計算資源,以及公司高層對AI的關注。
AlphaGo是Alphabet在人工智能領域設置的一場賭局,但AlphaGo是安全的,毋庸置疑。