《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > 蘋果發(fā)布語(yǔ)言模型OpenELM:基于開(kāi)源訓(xùn)練和推理框架

蘋果發(fā)布語(yǔ)言模型OpenELM:基于開(kāi)源訓(xùn)練和推理框架

2024-04-26
來(lái)源:環(huán)球網(wǎng)
關(guān)鍵詞: 蘋果 OpenELM 語(yǔ)言模型

4月25日消息,蘋果公司于日前發(fā)布一個(gè)名為OpenELM的高效語(yǔ)言模型,具有開(kāi)源訓(xùn)練和推理框架。

蘋果方面表示,“大型語(yǔ)言模型的可重復(fù)性和透明性對(duì)于推進(jìn)開(kāi)放研究、確保結(jié)果的可信度以及調(diào)查數(shù)據(jù)和模型偏差以及潛在風(fēng)險(xiǎn)至關(guān)重要。為此,我們發(fā)布了 OpenELM?!?/p>

據(jù)介紹,OpenELM使用分層縮放策略,可以有效地分配Transformer模型每一層的參數(shù),從而提高準(zhǔn)確率。例如,在參數(shù)量約為10億的情況下,OpenELM與OLMo 相比準(zhǔn)確率提升了2.36%,同時(shí)所需的預(yù)訓(xùn)練 tokens 數(shù)量為原來(lái)的50%。

“與以往只提供模型權(quán)重和推理代碼并在私有數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練的做法不同。”蘋果官方指出,“我們發(fā)布的版本包含了在公開(kāi)數(shù)據(jù)集上訓(xùn)練和評(píng)估語(yǔ)言模型的完整框架,包括訓(xùn)練日志、多個(gè)檢查點(diǎn)和預(yù)訓(xùn)練配置。我們還發(fā)布了將模型轉(zhuǎn)換為 MLX 庫(kù)的代碼,以便在蘋果設(shè)備上進(jìn)行推理和微調(diào)。此次全面發(fā)布旨在增強(qiáng)和鞏固開(kāi)放研究社區(qū),為未來(lái)的開(kāi)放研究工作鋪平道路?!?/p>

據(jù)悉,這是一項(xiàng)開(kāi)源語(yǔ)言模型,其源碼及預(yù)訓(xùn)練的模型權(quán)重和訓(xùn)練配方可在蘋果 Github庫(kù)中獲取。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。