7月25日訊,據 huggingface 頁面顯示,英偉達官方推出一款小語言模型Minitron,包含4B和8B兩個參數版本。
據悉,Minitron在保持相當性能水平的同時,將模型大小縮小了 2-4 倍。具體來說,使用這種方法,從 15B 模型衍生出的 8B 和 4B 模型所需的訓練代幣比從頭開始訓練少 40 倍。這使得訓練整個模型系列(15B、8B 和 4B)的計算成本節(jié)省了 1.8 倍。
Minitron 模型系列現已在 Huggingface 上開源供公眾使用。
本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。