《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 2024年,人工智能芯片展望

2024年,人工智能芯片展望

2024-01-03
來源:半導(dǎo)體產(chǎn)業(yè)聯(lián)盟
關(guān)鍵詞: 人工智能 芯片 大語言模型

2023年,隨著以大語言模型為代表的人工智能市場持續(xù)火爆,我們看到了人工智能成為了半導(dǎo)體行業(yè)的最大推動力,也見證了Nvidia驚人的銷售業(yè)績以及其市值創(chuàng)下新高。隨著新年的到來,我們也對2024年人工智能芯片做一個(gè)展望。

01

市場需求:人工智能仍將繼續(xù)火熱

從市場需求側(cè)來看,我們認(rèn)為人工智能在2024年仍然將繼續(xù)火熱,這也將繼續(xù)推動相關(guān)的芯片行業(yè)保持良好的態(tài)勢。然而,與2023年不同的是,我們認(rèn)為在2024年,人工智能市場的需求會同時(shí)從云端慢慢擴(kuò)展到終端,這也將驅(qū)動相應(yīng)的芯片市場發(fā)展。

首先,從云端需求來看,大語言模型仍然將是主要的增長點(diǎn)。同時(shí),圖像生成類模型也會保持快速增長的勢頭。具體來說,大語言模型仍然是各大科技公司競相研發(fā)的核心技術(shù),包括OpenAI,微軟,谷歌,華為,阿里巴巴,百度等中外科技公司都在大力研發(fā)下一代的大語言模型,而包括中國移動等傳統(tǒng)行業(yè)的公司也在入局大語言模型領(lǐng)域,同時(shí)還有大量的初創(chuàng)公司在依靠風(fēng)險(xiǎn)投資的支持也在大力開發(fā)大語言模型。大語言模型的百家爭鳴時(shí)代才剛剛開始并且遠(yuǎn)遠(yuǎn)沒有落下帷幕,在這樣的群雄逐鹿的時(shí)間節(jié)點(diǎn),預(yù)計(jì)對于芯片的需求也會快速增長。大語言模型的特點(diǎn)是需要海量的數(shù)據(jù)和訓(xùn)練芯片資源,而且同時(shí)由于格局尚未塵埃落定有大量的公司在研發(fā)新的模型,因此總體來說訓(xùn)練芯片的需求會非常大。

而隨著云端人工智能交互進(jìn)入多模態(tài)時(shí)代,聊天機(jī)器人已經(jīng)不僅僅可以用文字回答,而且還可以完成看圖說話以及圖像甚至視頻生成等任務(wù),因此我們認(rèn)為,圖像生成類的模型,以及圖像和語言結(jié)合的多模態(tài)模型也將會成為云端人工智能的一個(gè)重要增長點(diǎn)。

除了云端之外,我們認(rèn)為終端(包括手機(jī)和智能車)也將會成為人工智能的新增長點(diǎn)。手機(jī)上的人工智能雖然早已不再新鮮,但是隨著生成模型的成熟,我們可望看到這類模型落地手機(jī)端并賦能新的用戶體驗(yàn)。手機(jī)端生成類模型又分為兩種,一種是圖像生成類模型,即以擴(kuò)散模型(diffusion model)為代表的模型,這類模型可以實(shí)現(xiàn)高質(zhì)量超分辨以及高質(zhì)量修圖,從而可望給用戶的拍照和照片編輯帶來革命性的變化。另一類應(yīng)用是語言模型——與運(yùn)行在云端的大語言模型(LLM)相對地,過去幾個(gè)月我們看到了小語言模型(SLM)的興起。小語言模型和大語言模型一樣,都是主要用于語言的理解和生成(或者說,與人對話);小語言模型在參數(shù)量變少之后,可以更靈活地應(yīng)用在一些專用的場景中(而不是像大語言模型一樣試圖覆蓋所有場景)并且提供很高的準(zhǔn)確性,同時(shí)還有可能運(yùn)行在終端設(shè)備中。

從智能車領(lǐng)域,一方面隨著端到端多任務(wù)大模型帶來的革命性性能提升(例如BEVFormer帶來的俯瞰場景識別性能提升,以及商湯在2023發(fā)布的UniAD帶來的多任務(wù)性能大幅提升)會推動這類模型進(jìn)一步落地并且推動芯片的需求,另一方面則是來自于語言模型人機(jī)交互這類源自于云端的人工智能應(yīng)用遷移到智能車場景。

因此,我們預(yù)測,2024年將會是人工智能持續(xù)火熱的一年,與2023年不同的是除了云端人工智能保持熱門之外,我們預(yù)計(jì)終端應(yīng)用場景也會成為新的人工智能需求增長點(diǎn)。

02

云端市場格局分析

云端人工智能芯片市場,我們預(yù)計(jì)Nvidia仍然將保持領(lǐng)跑地位,但是AMD等競爭者預(yù)計(jì)也將獲得更多市場份額。

首先,如前所述,云端市場目前主要的需求在于大語言模型和生成式圖像的訓(xùn)練和推理。由于這些模型對于計(jì)算資源需求非常大,而且訓(xùn)練任務(wù)占的比例很大,因此給相應(yīng)的芯片設(shè)了一個(gè)很高的門檻。這里的門檻包括了:

芯片算力:為了支持巨大的計(jì)算量,芯片需要有足夠的計(jì)算單元,內(nèi)存容量和帶寬

分布式計(jì)算支持:對于大模型來說分布式計(jì)算是必須的

軟件兼容性和生態(tài):對于訓(xùn)練來說,對于模型進(jìn)行反復(fù)快速迭代是一個(gè)很強(qiáng)的需求,因此必須有足夠好的生態(tài)來支持不同的模型算符快速迭代

目前而言,Nvidia在這一個(gè)領(lǐng)域仍然是領(lǐng)先,無論是其芯片和分布式計(jì)算性能,還是軟件生態(tài)兼容性來說,都是首選。這也是為什么2023年Nvidia的H100成為了人工智能相關(guān)公司最寶貴的資源,在市場上供不應(yīng)求。在2024 H2,Nvidia將會開始出貨H200,相對于H100來說,H200擁有40%和內(nèi)存帶寬提升以及80%的內(nèi)存容量提升,因此可望會被人工智能公司爭相購買。

1.png

在2024年,我們預(yù)計(jì)AMD在云端人工智能領(lǐng)域也將更加站穩(wěn)腳跟,并由此開始慢慢走向更大的市場份額。2023下半年,AMD發(fā)布了最新的MI300X用于高性能計(jì)算的GPU模組,該芯片包含大芯片粒(12個(gè)處理器/IO芯片粒),并且相比于H200來說,擁有更高(1.6倍)的FP8算力,以及更大的內(nèi)存容量和帶寬(1.2倍)。從AMD公布的實(shí)測數(shù)據(jù)來看,MI300X的推理能力大約比H100強(qiáng)20%-40%,訓(xùn)練性能則和H100持平。我們認(rèn)為,軟件生態(tài)(包括編譯器性能)將成為決定AMD在云端人工智能市場能否成功的決定性因素,而這一點(diǎn)預(yù)計(jì)在2024年將會有所改善:OpenAI將在最新發(fā)布的Triton框架中加入對于AMD MI300X的支持,而各大初創(chuàng)公司的人工智能加速軟件框架也在加強(qiáng)對于AMD GPU的支持。隨著芯片性能和軟件生態(tài)的提升,以及各大科技公司對于Nvidia GPU一家獨(dú)大地位的擔(dān)憂態(tài)度,我們預(yù)計(jì)2024年對于AMD的GPU在人工智能市場將會是重要的一年,預(yù)計(jì)將會看到更多客戶的應(yīng)用。

從供應(yīng)鏈角度,由于云端人工智能芯片對于HBM3等高帶寬內(nèi)存有著強(qiáng)力的需求,我們認(rèn)為HBM內(nèi)存以及高級封裝(如CoWoS)的產(chǎn)能仍然將會火熱,這也將推動相應(yīng)半導(dǎo)體企業(yè)擴(kuò)大產(chǎn)能,以及積極研發(fā)下一代內(nèi)存和高級封裝技術(shù)。從這個(gè)角度看,人工智能應(yīng)用仍然將會是推動半導(dǎo)體新技術(shù)高速發(fā)展的核心動力。

03

終端市場格局分析

除了云端市場外,我們預(yù)計(jì)人工智能對于終端市場也有更強(qiáng)的需求,這也將推動人工智能成為終端計(jì)算芯片中越來越重要的差異化元素。

在手機(jī)端,人工智能的使用頻率將會進(jìn)一步增強(qiáng),這也會推動芯片加入更多相應(yīng)的算力,并且將人工智能支持作為SoC的核心亮點(diǎn)。例如高通發(fā)布的Snapdragon 8 Gen 3就以“低于一秒的延遲實(shí)現(xiàn)圖像生成任務(wù)”作為一個(gè)重要賣點(diǎn),估計(jì)這樣的人工智能能力將會深度集成到手機(jī)廠商的操作系統(tǒng)中。除了高通這樣的第三方芯片公司之外,自研手機(jī)芯片的系統(tǒng)廠商預(yù)計(jì)也會繼續(xù)加碼人工智能;蘋果雖然在這方面保持低調(diào),但是預(yù)計(jì)在未來會以各種方式(加大NPU算力,或者是加大軟件支持)的方法來開始賦能更多人工智能在iPhone上的新拍攝用戶體驗(yàn)。vivo在自研ISP芯片領(lǐng)域已經(jīng)有了數(shù)年積累,而目前生成式人工智能對于拍攝體驗(yàn)的提升恰好和ISP有很強(qiáng)的協(xié)同作用,這也是2023年8月vivo發(fā)布的v3 ISP芯片強(qiáng)調(diào)了生成式人工智能作為一個(gè)核心亮點(diǎn)。未來,預(yù)計(jì)會看到越來越多這樣的芯片強(qiáng)調(diào)人工智能對于用戶體驗(yàn)上的賦能作用。

在智能汽車領(lǐng)域,Nvidia雖然不如在云端強(qiáng)勢,但是其Orin系列芯片仍然是各大車廠考慮的標(biāo)準(zhǔn)芯片模組。我們認(rèn)為,隨著人工智能大模型對于智能駕駛的賦能作用逐漸加強(qiáng),無論是第三方芯片還是車廠自研的芯片都將會進(jìn)一步強(qiáng)化對于人工智能算力的投入,同時(shí)也推動芯片性能的快速提升——最近,無論是蔚來發(fā)布新自研芯片的算力規(guī)格,還是特斯拉傳出將使用TSMC 3nm作為下一代芯片的生產(chǎn)工藝,都在提示著我們2024年人工智能將在智能車芯片領(lǐng)域扮演越來越重要的角色。

04

哪些新技術(shù)值得關(guān)注?

除了以上討論的芯片之外,有哪些新技術(shù)可望會為人工智能芯片領(lǐng)域帶來新的變化?

首先,存內(nèi)計(jì)算和近內(nèi)存計(jì)算/處理技術(shù)可望會得到越來越多的關(guān)注。對于云端人工智能來說,內(nèi)存訪問開銷一直是一個(gè)性能瓶頸,而隨著大模型的參數(shù)量越來越大,內(nèi)存訪問帶來的開銷也越來越大。存內(nèi)計(jì)算和近內(nèi)存計(jì)算/處理技術(shù)的主要目的就是為了降低這樣的開銷,讓一些計(jì)算和處理任務(wù)能夠在內(nèi)存中就完成。在這個(gè)領(lǐng)域,三星的PIM(process in memory)和PNM(process near memory)技術(shù)非常值得我們關(guān)注,而這些技術(shù)也可望會成為三星未來進(jìn)一步提高自身存儲器技術(shù)差異化競爭力的關(guān)鍵。

對于終端人工智能來說,智能汽車場景中由于對于延遲有著較強(qiáng)的需求,因此新技術(shù)有比較多的機(jī)會能產(chǎn)生影響。在云端,以GPU為代表的加速芯片都是主要基于優(yōu)化吞吐量的考慮,而不是延遲,因此在智能車領(lǐng)域必須有新的架構(gòu)設(shè)計(jì)。對于車載應(yīng)用來說,數(shù)據(jù)都是以數(shù)據(jù)流的形式(而不是批量的形式)進(jìn)入處理器,因此人工智能芯片必須能高速低延遲處理這些數(shù)據(jù)流。另一方面,大模型正在進(jìn)入智能車應(yīng)用,因此如何在低延遲的情況下支持大模型推理,將會是智能車芯片中新技術(shù)需要重點(diǎn)突破的方向。


weidian.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。