《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 谷歌研究:合成數(shù)據(jù)使大模型數(shù)學(xué)推理能力提升八倍

谷歌研究:合成數(shù)據(jù)使大模型數(shù)學(xué)推理能力提升八倍

2025-04-07
來源:IT之家
關(guān)鍵詞: 谷歌 大模型 人工智能

4 月 7 日消息,最近,來自谷歌、卡內(nèi)基梅隆大學(xué)和 MultiOn 的聯(lián)合研究團隊發(fā)表了一項關(guān)于合成數(shù)據(jù)在大型模型訓(xùn)練中應(yīng)用的新研究。

據(jù)專注于人工智能發(fā)展的研究機構(gòu) Epoch AI 報告顯示,目前全球約有 300 萬億個公開可用的高質(zhì)量文本訓(xùn)練標記。然而,隨著類似 ChatGPT 這樣的大模型的迅猛發(fā)展,對訓(xùn)練數(shù)據(jù)的需求呈指數(shù)級增長,預(yù)計到 2026 年之前,這些數(shù)據(jù)將被耗盡。因此,合成數(shù)據(jù)成為了至關(guān)重要的替代方案。

據(jù)IT之家了解,研究人員主要探索了兩種合成數(shù)據(jù)類型:正向數(shù)據(jù)和負向數(shù)據(jù)。正向數(shù)據(jù)是指由高性能大模型(如 GPT-4 和 Gemini 1.5 Pro)生成的正確問題解決方案,為模型提供解決數(shù)學(xué)問題的示例。但僅依靠正向數(shù)據(jù)進行訓(xùn)練存在局限性。一方面,這種方法可能無法完全揭示問題解決過程背后的邏輯,模型可能會通過模式匹配來學(xué)習(xí),而缺乏真正的理解;另一方面,隨著訓(xùn)練數(shù)據(jù)量的增加,模型可能會學(xué)到虛假的相關(guān)性,導(dǎo)致在處理新問題時泛化能力下降。

000.png

鑒于此,研究人員引入了負向數(shù)據(jù),即經(jīng)過驗證為錯誤的問題解決步驟。這有助于模型識別并避免錯誤,從而增強其邏輯推理能力。盡管使用負向數(shù)據(jù)存在挑戰(zhàn),因為錯誤的步驟可能包含誤導(dǎo)性信息,但研究人員通過直接偏好優(yōu)化(DPO)方法成功地使模型能夠從錯誤中學(xué)習(xí),強調(diào)了每個問題解決步驟的重要性。

DPO 方法為每個問題解決步驟分配一個優(yōu)勢值,反映其相對于理想解決方案的價值。研究表明,高優(yōu)勢步驟是正確解決方案的關(guān)鍵,而低優(yōu)勢步驟可能表明模型推理中存在問題。利用這些優(yōu)勢值,模型可以在強化學(xué)習(xí)框架內(nèi)動態(tài)調(diào)整其策略,從而更高效地從合成數(shù)據(jù)中學(xué)習(xí)和改進。

為了驗證合成數(shù)據(jù)的有效性,研究團隊使用 DeepSeek-Math-7B 和 LLaMa2-7B 等模型,在 GSM8K 和 MATH 數(shù)據(jù)集上進行了全面測試。結(jié)果顯示,經(jīng)過正向和負向合成數(shù)據(jù)預(yù)訓(xùn)練的大模型在數(shù)學(xué)推理任務(wù)上的性能實現(xiàn)了八倍的提升。這一研究充分展示了合成數(shù)據(jù)在增強大模型邏輯推理能力方面的巨大潛力。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。