《電子技術(shù)應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 英偉達尖端圖像處理半導體H200開始供貨

英偉達尖端圖像處理半導體H200開始供貨

性能相比 H100 提升 60%-90%
2024-03-29
來源:IT之家
關(guān)鍵詞: 英偉達 H200 AI GPU

3 月 28 日消息,據(jù)日本經(jīng)濟新聞今日報道,英偉達的尖端圖像處理半導體(GPUH200 現(xiàn)已開始供貨。H200 為面向 AI 領(lǐng)域的半導體,性能超過當前主打的 H100。

根據(jù)英偉達方面公布的性能評測結(jié)果,以 Meta 公司旗下大語言模型 Llama 2 處理速度為例,H200 相比于 H100,生成式 AI 導出答案的處理速度最高提高了 45%。

1.png

市場調(diào)研機構(gòu) Omdia 曾表示,2022 年英偉達在 AI 半導體市場約占 8 成的份額,與此同時 AMD 等競爭對手也在開發(fā)對抗英偉達的產(chǎn)品,競爭愈演愈烈。

英偉達當?shù)貢r間 3 月 18 日在開發(fā)者大會上宣布,年內(nèi)將推出新一代 AI 半導體“B200”,B200 和 CPU(中央運算處理裝置)組合的新產(chǎn)品用于最新的 LLM 上?!白顝?AI 加速卡”GB200 包含了兩個 B200 Blackwell GPU 和一個基于 Arm 的 Grace CPU ,推理大語言模型性能比 H100 提升 30 倍,成本和能耗降至 25 分之一。

GB200 采用新一代 AI 圖形處理器架構(gòu) Blackwell,黃仁勛在 GTC 大會上表示:“Hopper 固然已經(jīng)非常出色了,但我們需要更強大的 GPU”。

據(jù)IT之家此前報道,英偉達 H200 于去年 11 月發(fā)布,其為基于英偉達的“Hopper”架構(gòu)的 HGX H200 GPU,是 H100 GPU 的繼任者,也是該公司第一款使用 HBM3e 內(nèi)存的芯片,這種內(nèi)存速度更快,容量更大,因此更適合大型語言模型。較前任霸主 H100,H200 的性能直接提升了 60% 到 90%。英偉達稱:“借助 HBM3e,英偉達 H200 以每秒 4.8 TB 的速度提供 141GB 的內(nèi)存,與 A100 相比,容量幾乎是其兩倍,帶寬增加了 2.4 倍?!?/p>


雜志訂閱.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。