《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動(dòng)態(tài) > 英偉達(dá)發(fā)布新nGPT架構(gòu)撬動(dòng)AI未來

英偉達(dá)發(fā)布新nGPT架構(gòu)撬動(dòng)AI未來

超球面學(xué)習(xí)提效,訓(xùn)練模型時(shí)間可縮短至 1/20
2024-10-22
來源:IT之家

10 月 22 日消息,科技媒體 dataconomy 昨日(10 月 21 日)發(fā)布博文,報(bào)道稱英偉達(dá)在訓(xùn)練 AI 模型方面取得重大突破,發(fā)布了最新的 Normalized Transformer(nGPT)新架構(gòu),保持模型的穩(wěn)定性和準(zhǔn)確性的前提下,可以將訓(xùn)練 AI 時(shí)間縮短至 1/4 或者 1/20。

nGPT 架構(gòu)提升效率的秘訣在于“超球面學(xué)習(xí)”(Hyperspherical learning)這個(gè)概念。

傳統(tǒng)的變換器模型通常缺乏一致的幾何框架,而 nGPT 通過將嵌入、注意力矩陣和隱藏狀態(tài)等關(guān)鍵組件映射到超球面表面,確保模型各層在訓(xùn)練過程中保持平衡。

這種幾何結(jié)構(gòu)有助于創(chuàng)造更穩(wěn)定高效的學(xué)習(xí)過程:

減少訓(xùn)練步驟:nGPT 不再直接對模型權(quán)重應(yīng)用權(quán)重衰減,而是依賴學(xué)習(xí)到的縮放參數(shù),優(yōu)化模型在訓(xùn)練中的調(diào)整方式。

簡化過程:此方法消除了對 LayerNorm 或 RMSNorm 等歸一化技術(shù)的需求,使訓(xùn)練過程更為簡單和快速。

英偉達(dá)團(tuán)隊(duì)使用 OpenWebText 數(shù)據(jù)集進(jìn)行測試,nGPT 在速度和效率上均優(yōu)于傳統(tǒng)的 GPT 模型。對于長達(dá) 4000 個(gè) tokens 的文本輸入,nGPT 所需的訓(xùn)練輪次遠(yuǎn)少于傳統(tǒng)模型,顯著縮短了訓(xùn)練時(shí)間。

0.jpg

0.jpg

nGPT 的一個(gè)關(guān)鍵優(yōu)勢是將歸一化(normalization)和表示學(xué)習(xí)(representation learning)結(jié)合成一個(gè)統(tǒng)一框架,這種設(shè)計(jì)簡化了模型架構(gòu),便于擴(kuò)展和適應(yīng)更復(fù)雜的混合系統(tǒng)。未來,nGPT 的方法可能被整合進(jìn)其他類型的模型和架構(gòu),從而開發(fā)出更強(qiáng)大的 AI 系統(tǒng)。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。