《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動(dòng)態(tài) > 元象發(fā)布中國最大MoE開源大模型

元象發(fā)布中國最大MoE開源大模型

總參數(shù)255B,激活參數(shù)36B
2024-09-14
來源:IT之家

9 月 13 日消息,元象 XVERSE 發(fā)布中國最大 MoE 開源模型 XVERSE-MoE-A36B。

該模型總參數(shù) 255B,激活參數(shù) 36B,官方號稱效果能“大致達(dá)到”超過 100B 大模型的“跨級”性能躍升,同時(shí)訓(xùn)練時(shí)間減少 30%,推理性能提升 100%,使每 token 成本大幅下降。

MoE(Mixture of Experts)混合專家模型架構(gòu),將多個(gè)細(xì)分領(lǐng)域的專家模型組合成一個(gè)超級模型,在擴(kuò)大模型規(guī)模的同時(shí),保持模型性能最大化,甚至還能降低訓(xùn)練和推理的計(jì)算成本。谷歌 Gemini-1.5、OpenAI 的 GPT-4 、馬斯克旗下 xAI 公司的 Grok 等大模型都使用了 MoE。

在多個(gè)評測中,元象 MoE 超過多個(gè)同類模型,包括國內(nèi)千億 MoE 模型 Skywork-MoE、傳統(tǒng) MoE 霸主 Mixtral-8x22B 以及 3140 億參數(shù)的 MoE 開源模型 Grok-1-A86B 等。

0.png


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。