《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 业界动态 > 达摩院开源具身大脑基模RynnBrain

达摩院开源具身大脑基模RynnBrain

首次让机器人拥有时空记忆
2026-02-10
來源:环球网科技

2月10日,阿里巴巴達(dá)摩院發(fā)布具身智能大腦基礎(chǔ)模型RynnBrain,并一次性開源了包括30B MoE在內(nèi)的7個全系列模型。RynnBrain首次讓機器人擁有了時空記憶和空間推理能力,智能水平實現(xiàn)大幅躍升,在16項具身開源評測榜單上刷新紀(jì)錄(SOTA),超越谷歌Gemini Robotics ER 1.5等行業(yè)頂尖模型。

據(jù)介紹,具身模型的智能水平已成為行業(yè)發(fā)展的重要瓶頸,尤其是泛化能力亟待提升。業(yè)界形成了多條技術(shù)路線的探索:一類是動作模型,從機器人末端動作輸出著手,發(fā)展出可以直接操作物理世界的VLA模型,但VLA模型往往因為數(shù)據(jù)稀缺難以實現(xiàn)泛化;另一類是大腦模型,從本身具有泛化能力的VLM等模型入手,但他們普遍缺乏記憶能力,動態(tài)認(rèn)知受限,且普遍存在物理幻覺,難以支持人形機器人復(fù)雜的移動操作。

為了克服這些問題,達(dá)摩院的RynnBrain模型創(chuàng)造性地引入了時空記憶和物理世界推理,這是機器人與環(huán)境互動所需的兩項基本能力。時空記憶能力可讓機器人在其完整的歷史記憶中定位物體、目標(biāo)區(qū)域,甚至預(yù)測運動軌跡,從而賦予機器人全局時空回溯能力。物理空間推理不同于傳統(tǒng)的純文本推理范式,RynnBrain 采用文本與空間定位交錯進行的推理策略,確保其推理過程緊密扎根于物理環(huán)境,大大減弱了幻覺問題。舉例來說,運行RynnBrain模型的機器人,在執(zhí)行A任務(wù)中被突然打斷要求先做B任務(wù),它能記住A任務(wù)的時間和空間狀態(tài),等完成B后繼續(xù)工作。

20ddc5c1fde9152c7301b6f66a16d331u1.png

RynnBrain具有認(rèn)知、定位、推理、規(guī)劃等多重能力

RynnBrain在Qwen3-VL基礎(chǔ)上訓(xùn)練,使用自研的RynnScale架構(gòu)進行訓(xùn)練優(yōu)化,同等資源加速兩倍,訓(xùn)練數(shù)據(jù)超過2000萬對。結(jié)果顯示,RynnBrain能力全面,性能領(lǐng)先,在16項具身開源評測榜單上刷新紀(jì)錄(SOTA),包括環(huán)境感知與對象推理、第一人稱視覺問答、空間推理、軌跡預(yù)測等,超越了谷歌Gemini Robotics ER 1.5、英偉達(dá) Cosmos Reason 2等具身頂尖模型。

b189c1722eb90c89189a23bd1f3f43bfu1.png

RynnBrain在16項具身評測上實現(xiàn)SOTA

RynnBrain還擁有良好的可拓展性,能夠快速訓(xùn)練出導(dǎo)航、規(guī)劃、動作等多種具身模型,有望成為具身行業(yè)的基礎(chǔ)模型。以具身規(guī)劃模型為例,其需要強大預(yù)測能力和場景解析能力,但基于RynnBrain為基礎(chǔ),只需幾百條數(shù)據(jù)微調(diào),效果就能超越Gemini 3 Pro,輕松實現(xiàn)SOTA。

以開源完整的推理與訓(xùn)練代碼的方式,達(dá)摩院此次開源了RynnBrain全系列模型,共計7個,包含全尺寸基礎(chǔ)模型與后訓(xùn)練專有模型,其中有業(yè)界首個MoE架構(gòu)的30B具身模型,只需要3B的推理激活參數(shù)就能超越業(yè)界的72B模型效果,因此能讓機器人動作更快、更絲滑。同時,達(dá)摩院還開源了全新評測基準(zhǔn) RynnBrain-Bench,用于評測時空細(xì)粒度具身任務(wù),填補了行業(yè)空白。

d05e8b5bc4e72641bb9bade369405cffu1.png

RynnBrain模型架構(gòu)

達(dá)摩院具身智能實驗室負(fù)責(zé)人趙德麗表示:“RynnBrain 首次實現(xiàn)了大腦對物理世界的深度理解與可靠規(guī)劃,為大小腦分層架構(gòu)下的通用具身智能邁出關(guān)鍵一步。我們期待它加速 AI 從數(shù)字世界走向真實物理場景的落地進程?!睋?jù)了解,達(dá)摩院積極投入具身智能,正在構(gòu)建可部署、可擴展、可進化的具身智能系統(tǒng),已開源了融合世界模型和VLA模型的WorldVLA、世界理解模型 RynnEC等具身模型,以及業(yè)界首個機器人上下文協(xié)議 RynnRCP 。

2.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。