《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > AMD發(fā)布首個10億開源AI模型OLMo

AMD發(fā)布首個10億開源AI模型OLMo

用Instinct MI250 GPU集群訓(xùn)練而成
2024-11-08
來源:IT之家
關(guān)鍵詞: AMD OLMo 開源AI模型 decoder-only

AMD 公司于 10 月 31 日發(fā)布博文,宣布推出首個完全開放的 10 億參數(shù)語言模型系列 AMD OLMo,為開發(fā)者和研究人員提供強大的 AI 研究工具。

AMD OLMo 模型使用從零開始訓(xùn)練的 10 億參數(shù)語言模型系列(LMs),在 AMD Instinct MI250 GPU 集群上訓(xùn)練,使用了超過 1.3 萬億個 tokens 進行預(yù)訓(xùn)練,讓模型在處理自然語言任務(wù)時具有強大的推理能力。

OLMo 模型采用解碼器(decoder-only)架構(gòu),并通過下一個標(biāo)記預(yù)測(next-token prediction)進行訓(xùn)練,這種架構(gòu)在生成文本和理解上下文方面表現(xiàn)出色。

0.png

與其他同類開源模型相比,AMD OLMo 在推理能力和聊天能力上表現(xiàn)優(yōu)異。尤其是在多個基準(zhǔn)測試中,其性能與最新的 OLMo 模型相當(dāng),且計算預(yù)算僅為其一半。

11.jpg

22.jpg

33.jpg

44.jpg

OLMo 除數(shù)據(jù)中心使用外,更支持配備 NPU(Neural Processing Unit,神經(jīng)處理單元)的 AMD Ryzen AI PC 能夠部署模型,使開發(fā)者能在個人設(shè)備提供 AI 功能。

AMD OLMo 是完全開源的,這意味著其他開發(fā)者和公司可以自由使用和修改這些模型,這讓其成為希望探索 AI 技術(shù)替代方案的企業(yè)的一個可行選擇。


官方訂閱.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。