《電子技術(shù)應用》
您所在的位置:首頁 > 模擬設(shè)計 > 業(yè)界動態(tài) > Meta第二代自研AI芯投產(chǎn)

Meta第二代自研AI芯投產(chǎn)

擺脫英偉達依賴 為買H100小扎狂砸數(shù)百億美元
2024-02-04
來源:新智元
關(guān)鍵詞: META AI 英偉達 H100

Meta的第二代自研芯片正式投產(chǎn)!小扎計劃今年部署Artemis AI芯片為AI提供算力,以減少對英偉達GPU的依賴。

Meta第二代自研AI芯片Artemis,今年正式投產(chǎn)!

據(jù)悉,新的芯片將被用于數(shù)據(jù)中心的推理(Inference)任務,并與英偉達等供應商的GPU一起協(xié)同工作。

對此,Meta的發(fā)言人表示:「我們認為,我們自主開發(fā)的加速器將與市面上的GPU相得益彰,為Meta的任務提供最佳的性能與效率平衡?!?/p>

除了更高效地運行的推薦模型外,Meta還需要為自家的生成式AI應用,以及正在訓練的GPT-4開源競品Llama 3提供算力。

Meta的AI貼紙功能,此前在Messenger、Instagram和WhatsApp上都處于測試階段

OpenAI工程師Jason Wei在Meta的一次AI活動中聽到,Meta現(xiàn)在有足夠的算力來訓練Llama 3和4。Llama 3計劃達到GPT-4的性能水平,但仍將免費提供

不難看出,Meta的目標非常明確——在減少對英偉達芯片依賴的同時,盡可能控制AI任務的成本。

Meta成英偉達大客戶

Meta CEO小扎最近宣布,他計劃到今年年底部署35萬顆英偉達H100 GPU,總共將有約60萬顆GPU運行和訓練AI系統(tǒng)。

這也讓Meta成為了繼微軟之后,英偉達最大的已知客戶。

2.jpg

小扎表示,目前Meta內(nèi)部正在訓練下一代模型Llama 3。

在35萬塊H100上訓練的Llama 3,無法想象會有多大!

Omdia的研究數(shù)據(jù)顯示,Meta在2023年H100的出貨量為15萬塊,與微軟持平,且是其他公司出貨量的3倍。

小扎稱,「如果算上英偉達A100和其他AI芯片,到2024年底,Meta將擁有近60萬個GPU等效算力」。

性能更強、尺寸更大的模型,導致更高的AI工作負載,讓成本直接螺旋式上升。

據(jù)《華爾街日報》的一位匿名人士稱,今年頭幾個月,每有一個客戶,微軟每月在Github Copilot上的損失就超過20美元,甚至某些用戶每月的損失高達80美元,盡管微軟已經(jīng)向用戶收取每月10美元的費用。

之所以賠錢,是因為生成代碼的AI模型運行成本高昂。 如此高的成本,讓大科技公司們不得不尋求別的出路。

除了Meta之外,OpenAI和微軟也在試圖打造自己專有的AI芯片以及更高效的模型,來打破螺旋式上升的成本。

weidian.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。