9 月 13 日消息,昆侖萬維發(fā)布了兩款全新的獎勵模型 Skywork-Reward-Gemma-2-27B 和 Skywork-Reward-Llama-3.1-8B。在獎勵模型評估基準 RewardBench 上,這兩款模型分別位列排行榜上的第一和第三位。
獎勵模型(Reward Model)是強化學習(Reinforcement Learning)中的核心概念和關(guān)鍵組成,它用于評估智能體在不同狀態(tài)下的表現(xiàn),并為智能體提供獎勵信號以指導其學習過程,讓智能體能夠?qū)W習到在特定環(huán)境下如何做出最優(yōu)選擇。
獎勵模型在大語言模型(Large Language Model,LLM)的訓練中尤為重要,可以幫助模型更好地理解和生成符合人類偏好的內(nèi)容。
與現(xiàn)有獎勵模型不同,Skywork-Reward 的偏序數(shù)據(jù)僅來自網(wǎng)絡公開數(shù)據(jù),采用特定的篩選策略,以獲得針對特定能力和知識領(lǐng)域的高質(zhì)量的偏好數(shù)據(jù)集。
Skywork-Reward 偏序訓練數(shù)據(jù)集包含約 80,000 個樣本,通過在這些樣本上微調(diào) Gemma-2-27B-it 和 Llama-3.1-8B-Instruct 基座模型,獲得最終的 Skywork-Reward 獎勵模型。
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。