《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > EDA與制造 > 業(yè)界動態(tài) > 這個全球最大的芯片走進了“云”

這個全球最大的芯片走進了“云”

2021-09-23
來源:半導體行業(yè)觀察
關(guān)鍵詞: 芯片

  五個月前,當 Cerebras Systems推出其第二代晶圓級芯片系統(tǒng) (CS-2) 時,該公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官 Andrew Feldman 暗示了公司即將推出的計劃,現(xiàn)在這些計劃已經(jīng)實現(xiàn)。

  日前,Cerrebras 和 Cirrascale Cloud Services 推出了 Cerebras Cloud @ Cirrascale 平臺,通過 Cirrascale 的云服務(wù)提供對 Cerebras 的 CS-2 晶圓級引擎 (WSE) 系統(tǒng)的訪問。

  CS-2 機器運行了 850,000 個 AI 優(yōu)化計算核心,重約 500 磅,安裝在加利福尼亞州圣克拉拉的 Cirrascale 數(shù)據(jù)中心,但該服務(wù)將在全球范圍內(nèi)提供,開放訪問CS-2 提供給任何有互聯(lián)網(wǎng)連接和每周 60,000 美元用于訓練非常大的 AI 模型的人。

  “對于訓練,我們沒有發(fā)現(xiàn)延遲是一個問題,”Cirrascale 首席執(zhí)行官 PJ Go 在上周與人工智能硬件峰會同時舉行的媒體預(yù)發(fā)布會上說。

  Feldman 表示同意,并補充說:“如果你要進行 20 小時或更長時間的訓練,從克利夫蘭到圣何塞的光速可能不是什么大問題。”

  Cirrascale 的 Cerebras Cloud 客戶將獲得對 Cerebras 軟件和編譯器包的完全訪問權(quán)限。

  “編譯器工具集位于 Cirrascale 開發(fā)的云工具集之下,”Feldman 說。“因此您將進入,您將獲得對計算集群、存儲、CS-2 的訪問權(quán);您將運行您的編譯堆棧,您將完成您的工作,您將被設(shè)置檢查點并存儲在 Cirrascale 基礎(chǔ)設(shè)施中,它將被識別,以便您可以稍后返回該工作。所有這些都已整合在一起。”

  該環(huán)境支持 TensorFlow 和 PyTorch 等熟悉的框架,Cerebras Graph Compiler 自動將從業(yè)者的神經(jīng)網(wǎng)絡(luò)從其框架表示轉(zhuǎn)換為 CS-2 可執(zhí)行文件。據(jù) Cerebras 稱,這消除了對集群編排、同步和模型調(diào)整的需要。

  通過每周最低買入——定價設(shè)定為每周 60,000 美元、每月 180,000 美元或每年 1,650,000 美元——Cirrascale 客戶可以訪問整個 CS-2 系統(tǒng)?!肮蚕砟J讲贿m合我們,”Feldman 說。該存在的理由的晶圓級制度是為了“作為機器的大,你可以解決你的問題,你可以盡快,”他告訴HPCwire。

  根據(jù) Feldman 的說法,Cerebras 沒有透露其 CS 系統(tǒng)的標價,但直接購買 CS-2 系統(tǒng)將使您花費“數(shù)百萬美元”。

  兩位 CEO 都認為“先試后買”是 Cerebras Cloud 產(chǎn)品的動機之一,它將對 CS-2 的功能印象深刻的租用者轉(zhuǎn)變?yōu)橐粋€或多個系統(tǒng)的購買者。但這些公司也希望有很大一部分用戶堅持使用云模式。

  偏好 OPEX 是一個原因,但這也是技能和經(jīng)驗的問題。談到這一點,F(xiàn)eldman 說:“關(guān)于我們行業(yè)的一個鮮為人知的事實是,實際上很少有人能夠真正構(gòu)建大型 GPU 集群,這種情況是多么罕見——需要的技能,而不僅僅是金錢。將大型模型傳播到 250 多個 GPU 上的技能可能存在于世界上幾十個組織中?!?/p>

  Cerebras Cloud 通過基于云的硬件和軟件基礎(chǔ)設(shè)施提供性能,并通過 Cirrascale 門戶訪問計費、存儲和其他服務(wù),從而簡化此過程?!皩τ谖覀儊碚f,將我們的業(yè)務(wù)范圍擴展到不同類型的客戶是一個顯而易見的選擇,”費爾德曼說。

  Cerebras 的第一個 CS 系統(tǒng)部署是在政府實驗室空間(美國能源部是一個根本性的勝利,在 2019 年人工智能硬件峰會上宣布)和商業(yè)網(wǎng)站,主要是制藥(葛蘭素史克是客戶)的內(nèi)部部署。通過將 CS-2 作為托管服務(wù)進行訪問,Cerebras 正在追求更廣泛的組織,從初創(chuàng)公司到財富 500 強公司。

  “我們一直致力于建立這種伙伴關(guān)系,”Cerebras Systems 產(chǎn)品副總裁 Andy Hock 在宣傳視頻中說?!拔覀冮_始專注于從頭開始訓練大型自然語言處理模型,如 BERT,我們將從那里擴展我們的產(chǎn)品?!?/p>

  Cirrascale 創(chuàng)始人兼首席技術(shù)官 David Driggers 表示:“Cerebras CS-2 處理的工作負載是我們今天無法在 GPU 上完成的?!盵這是]一個非常大規(guī)模的擴展場景,我們有一個模型,它不能并行化,但它可以處理大量數(shù)據(jù)。因此,當今最大的 NLP 模型需要大量的數(shù)據(jù)輸入以及大量的計算。由于需要 IO 通信,因此在 [傳統(tǒng)] 集群上很難做到這一點。

  Cerebras CS-2 使我們能夠利用非常大的內(nèi)存空間、大型內(nèi)置網(wǎng)絡(luò)和大量內(nèi)核,將 NLP 擴展到我們以前無法做到的高度?!?/p>

  參加預(yù)簡報電話會議的分析師 Karl Freun對合作伙伴關(guān)系表示贊同?!盋erebras 最近似乎在全力以赴,客戶獲勝,第二代 WSE,最近他們大膽聲稱他們正在構(gòu)建一個比我們所見過的任何東西都大 1000 倍的大腦規(guī)模的 AI,“他告訴HPCwire .

  ”你擁有的是一種非常熱門的商品(他們的技術(shù)),很多人都想嘗試它,但誰又不想花大筆錢購買和部署 CS-2。輸入 Cirrascale 和他們的 CS-2 云產(chǎn)品,這將使科學家能夠更容易地、至少在某種程度上更實惠地獲得業(yè)內(nèi)最大、最快的 AI 處理器。毫無疑問,這將為 Cerebras 的未來創(chuàng)造新的機會,無論是在云中還是在本地。“

  當被問及今天的 AI 芯片不適合未來的 AI 模型的風險時,F(xiàn)reund 說,”如果有的話,Cerebras 是一家公司,其架構(gòu)正在向冰球前進的方向滑行:巨大的 AI?!?/p>




本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。