Meta的第二代自研芯片正式投產(chǎn)!小扎計(jì)劃今年部署Artemis AI芯片為AI提供算力,以減少對(duì)英偉達(dá)GPU的依賴(lài)。
Meta第二代自研AI芯片Artemis,今年正式投產(chǎn)!
據(jù)悉,新的芯片將被用于數(shù)據(jù)中心的推理(Inference)任務(wù),并與英偉達(dá)等供應(yīng)商的GPU一起協(xié)同工作。
對(duì)此,Meta的發(fā)言人表示:「我們認(rèn)為,我們自主開(kāi)發(fā)的加速器將與市面上的GPU相得益彰,為Meta的任務(wù)提供最佳的性能與效率平衡。」
除了更高效地運(yùn)行的推薦模型外,Meta還需要為自家的生成式AI應(yīng)用,以及正在訓(xùn)練的GPT-4開(kāi)源競(jìng)品Llama 3提供算力。
Meta的AI貼紙功能,此前在Messenger、Instagram和WhatsApp上都處于測(cè)試階段
OpenAI工程師Jason Wei在Meta的一次AI活動(dòng)中聽(tīng)到,Meta現(xiàn)在有足夠的算力來(lái)訓(xùn)練Llama 3和4。Llama 3計(jì)劃達(dá)到GPT-4的性能水平,但仍將免費(fèi)提供
不難看出,Meta的目標(biāo)非常明確——在減少對(duì)英偉達(dá)芯片依賴(lài)的同時(shí),盡可能控制AI任務(wù)的成本。
Meta成英偉達(dá)大客戶(hù)
Meta CEO小扎最近宣布,他計(jì)劃到今年年底部署35萬(wàn)顆英偉達(dá)H100 GPU,總共將有約60萬(wàn)顆GPU運(yùn)行和訓(xùn)練AI系統(tǒng)。
這也讓Meta成為了繼微軟之后,英偉達(dá)最大的已知客戶(hù)。
小扎表示,目前Meta內(nèi)部正在訓(xùn)練下一代模型Llama 3。
在35萬(wàn)塊H100上訓(xùn)練的Llama 3,無(wú)法想象會(huì)有多大!
Omdia的研究數(shù)據(jù)顯示,Meta在2023年H100的出貨量為15萬(wàn)塊,與微軟持平,且是其他公司出貨量的3倍。
小扎稱(chēng),「如果算上英偉達(dá)A100和其他AI芯片,到2024年底,Meta將擁有近60萬(wàn)個(gè)GPU等效算力」。
性能更強(qiáng)、尺寸更大的模型,導(dǎo)致更高的AI工作負(fù)載,讓成本直接螺旋式上升。
據(jù)《華爾街日?qǐng)?bào)》的一位匿名人士稱(chēng),今年頭幾個(gè)月,每有一個(gè)客戶(hù),微軟每月在Github Copilot上的損失就超過(guò)20美元,甚至某些用戶(hù)每月的損失高達(dá)80美元,盡管微軟已經(jīng)向用戶(hù)收取每月10美元的費(fèi)用。
之所以賠錢(qián),是因?yàn)樯纱a的AI模型運(yùn)行成本高昂。 如此高的成本,讓大科技公司們不得不尋求別的出路。
除了Meta之外,OpenAI和微軟也在試圖打造自己專(zhuān)有的AI芯片以及更高效的模型,來(lái)打破螺旋式上升的成本。