《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > AMD發(fā)布首個10億開源AI模型OLMo

AMD發(fā)布首個10億開源AI模型OLMo

用Instinct MI250 GPU集群訓練而成
2024-11-08
來源:IT之家
關(guān)鍵詞: AMD OLMo 開源AI模型 decoder-only

AMD 公司于 10 月 31 日發(fā)布博文,宣布推出首個完全開放的 10 億參數(shù)語言模型系列 AMD OLMo,為開發(fā)者和研究人員提供強大的 AI 研究工具。

AMD OLMo 模型使用從零開始訓練的 10 億參數(shù)語言模型系列(LMs),在 AMD Instinct MI250 GPU 集群上訓練,使用了超過 1.3 萬億個 tokens 進行預(yù)訓練,讓模型在處理自然語言任務(wù)時具有強大的推理能力。

OLMo 模型采用解碼器(decoder-only)架構(gòu),并通過下一個標記預(yù)測(next-token prediction)進行訓練,這種架構(gòu)在生成文本和理解上下文方面表現(xiàn)出色。

0.png

與其他同類開源模型相比,AMD OLMo 在推理能力和聊天能力上表現(xiàn)優(yōu)異。尤其是在多個基準測試中,其性能與最新的 OLMo 模型相當,且計算預(yù)算僅為其一半。

11.jpg

22.jpg

33.jpg

44.jpg

OLMo 除數(shù)據(jù)中心使用外,更支持配備 NPU(Neural Processing Unit,神經(jīng)處理單元)的 AMD Ryzen AI PC 能夠部署模型,使開發(fā)者能在個人設(shè)備提供 AI 功能。

AMD OLMo 是完全開源的,這意味著其他開發(fā)者和公司可以自由使用和修改這些模型,這讓其成為希望探索 AI 技術(shù)替代方案的企業(yè)的一個可行選擇。


官方訂閱.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。