為了在人工智能市場搶占更大的份額,英偉達和 Alphabet 這兩家公司結(jié)成了意想不到的對手。到目前為止,Alphabet 一直在谷歌云平臺使用英偉達的 GPU 加速其各種 AI 應用,但現(xiàn)在看來,這家巨頭很是有意自己單獨切入這塊有著巨額利潤的空間。
就讓我們仔細看看英偉達和谷歌在人工智能上的淵源,以及可能產(chǎn)生的影響。
谷歌揭幕 TPU 第二代,在谷歌云平臺構(gòu)建機器學習超級計算機
Alphabet 在去年谷歌 I/O 大會上推出了自己的 AI 芯片——張量處理器 TPU。TPU 被廣泛用于各種應用,包括優(yōu)化搜索和語音識別的結(jié)果,在 Alphabet 的數(shù)據(jù)中心里也有使用。
與此同時,谷歌也在云計算平臺使用英偉達的 Tesla GPU,幫助用戶訓練模型。例如,2016 年 11 月,英偉達就對外公布了,谷歌選擇使用英偉達的 Tesla P100 GPU 和 K80 加速器為谷歌計算引擎(Google Compute Engine)和谷歌云機器學習用戶提供 AI 服務(wù)。
但是,在今年 5 月 I/O 大會上,谷歌推出第二代 TPU,并且通過云服務(wù)供用戶使用,此舉震驚了科技界。在今年 4 月發(fā)布的一篇官方博文中,谷歌表示 TPU 比當前的 CPU/GPU 速度快 15~30 倍。
第一代 TPU 只加速推理,但現(xiàn)在第二代 TPU 新增了訓練的功能。不僅如此,谷歌的用戶還能通過專門的網(wǎng)絡(luò),在云端利用 TPU 構(gòu)建機器學習的超級計算機。
事實上,谷歌宣布自己已經(jīng)成功將某些 AI 模型的訓練時間縮短到幾個小時,以前這樣的模型用市售 GPU 需要一天時間來訓練。
到今年年底,當谷歌 TPU 推出時,這可能意味著谷歌和英偉達在 AI 芯片上關(guān)系的終結(jié)。
英偉達:用開源來反擊
英偉達的回應是,谷歌在比較 TPU 相對于 GPU 的速度時,沒有與最新的 Pascal 架構(gòu)比較,而是選擇了較早的 Kepler GPU。
此外,英偉達也沒有閑著,宣稱即將上市的 Volta GPU 加速深度學習的性能會更好。
實際上,英偉達不僅僅定位于硬件供應商,這家公司正在開發(fā)一個名叫英偉達 GPU 云(NVIDIA GPU Cloud,NGC)的服務(wù),將配套提供 GPU(比如英偉達基于 Volta 的 Tesla V100)和英偉達深度學習庫。
英偉達采取了與谷歌不同的方式,專注將 AI 計算力作為平臺即服務(wù)(platform-as-a-service)來提供。
谷歌不會對外出售 TPU,而是用 TPU 驅(qū)動自己的Google Compute 平臺。因此,英偉達目前還無需擔憂失去谷歌這一客戶。另一方面,Volta GPU 平臺已經(jīng)開始具有商業(yè)吸引力,亞馬遜已確定在今年晚些時候 V100 芯片上市后立即購入。
英偉達的另一個優(yōu)勢在于,谷歌還沒有決定要開源 AI 框架,因此 TPU 的用戶被鎖定在谷歌的平臺上。而英偉達支持各種不同的云平臺,包括亞馬遜、微軟、谷歌、IBM,給了用戶在云服務(wù)供應商(CSP)方面更多的選擇。
此外,英偉達 CEO 黃仁勛還出了一個狠招,他在公司官方博文中寫道,要開源英偉達的深度學習加速器?!安恍枰賮砣送顿Y打造會推理的 TPU,我們這里免費提供——由世界上最好的芯片設(shè)計師設(shè)計。”
相對于局限在谷歌云服務(wù)中的 TPU,英偉達的開源讓其產(chǎn)品成了 CSP 巨頭,比如亞馬遜和微軟的選擇。同時,谷歌云平臺還不如亞馬遜和微軟的云平臺那么成功,而這也將限制谷歌云平臺的發(fā)展。