《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > 昆侖萬(wàn)維發(fā)布獎(jiǎng)勵(lì)模型Skywork-Reward

昆侖萬(wàn)維發(fā)布獎(jiǎng)勵(lì)模型Skywork-Reward

登頂RewardBench排行榜
2024-09-14
來(lái)源:IT之家

9 月 13 日消息,昆侖萬(wàn)維發(fā)布了兩款全新的獎(jiǎng)勵(lì)模型 Skywork-Reward-Gemma-2-27B 和 Skywork-Reward-Llama-3.1-8B。在獎(jiǎng)勵(lì)模型評(píng)估基準(zhǔn) RewardBench 上,這兩款模型分別位列排行榜上的第一和第三位。

0.png

獎(jiǎng)勵(lì)模型(Reward Model)是強(qiáng)化學(xué)習(xí)(Reinforcement Learning)中的核心概念和關(guān)鍵組成,它用于評(píng)估智能體在不同狀態(tài)下的表現(xiàn),并為智能體提供獎(jiǎng)勵(lì)信號(hào)以指導(dǎo)其學(xué)習(xí)過(guò)程,讓智能體能夠?qū)W習(xí)到在特定環(huán)境下如何做出最優(yōu)選擇。

獎(jiǎng)勵(lì)模型在大語(yǔ)言模型(Large Language Model,LLM)的訓(xùn)練中尤為重要,可以幫助模型更好地理解和生成符合人類(lèi)偏好的內(nèi)容。

與現(xiàn)有獎(jiǎng)勵(lì)模型不同,Skywork-Reward 的偏序數(shù)據(jù)僅來(lái)自網(wǎng)絡(luò)公開(kāi)數(shù)據(jù),采用特定的篩選策略,以獲得針對(duì)特定能力和知識(shí)領(lǐng)域的高質(zhì)量的偏好數(shù)據(jù)集。

Skywork-Reward 偏序訓(xùn)練數(shù)據(jù)集包含約 80,000 個(gè)樣本,通過(guò)在這些樣本上微調(diào) Gemma-2-27B-it 和 Llama-3.1-8B-Instruct 基座模型,獲得最終的 Skywork-Reward 獎(jiǎng)勵(lì)模型。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。