隨著具身智能成為人工智能的下一個戰(zhàn)略高地,底層算力底座的自主可控顯得尤為關鍵。近日,摩爾線程聯(lián)合北京智源人工智能研究院(以下簡稱:智源)基于FlagOS-Robo框架,依托MTT S5000千卡智算集群,成功完成智源自研具身大腦模型RoboBrain 2.5的全流程訓練。
這是行業(yè)內首次驗證國產算力集群在具身智能大模型訓練中的可用性與高效性,標志著國產AI基礎設施在應對復雜多模態(tài)任務上邁出了關鍵一步。通過面向多元芯片的統(tǒng)一AI系統(tǒng)軟件棧FlagOS與MTT S5000硬件集群的高效協(xié)作,該解決方案不僅“能訓”,而且實現(xiàn)了“訓得穩(wěn)、訓得快”,為具身智能從實驗室走向產業(yè)落地提供了堅實底座。
多維評測驗證,指標全面對齊
為了檢驗模型算法效果,智源團隊在2D/3D空間感知推理榜單、時序價值評估榜單等多個權威具身評測數(shù)據集上進行了驗證。結果顯示,基于MTT S5000國產千卡訓練出的RoboBrain-2.5模型,在多項關鍵指標上均與國際主流GPU訓練模型保持一致。特別是在CrossPoint、Q-Spatial、VABench-V任務上,算法效果表現(xiàn)更優(yōu)。這種全面對齊的評測結果,表明FlagOS-Robo框架與MTT S5000算力協(xié)同訓練出的“具身大腦”,在理解、規(guī)劃和執(zhí)行能力上已達行業(yè)一流水準。

Loss完美對齊,誤差小于0.62%
在模型精度方面,基于MTT S5000的夸娥智算集群表現(xiàn)出極高的穩(wěn)定性。訓練曲線顯示,MTT S5000千卡集群上的Loss走勢與 國際主流GPU訓練結果高度重合,相對誤差小于0.62%。這一低誤差表明國產算力訓練準確性的同時,智源FlagOS-Robo框架成功實現(xiàn)了跨平臺的無損遷移,開發(fā)者無需擔心硬件更換導致的模型性能下降,真正做到了“代碼不改、精度不降”的平滑適配。
極致線性擴展,千卡加速比超90%
大規(guī)模集群訓練的核心在于效率。本次訓練實測數(shù)據顯示,摩爾線程MTT S5000千卡智算集群展現(xiàn)了較高的擴展能力:從64卡擴展至1024卡,系統(tǒng)實現(xiàn)了90%以上的線性擴展效率。擴展曲線呈現(xiàn)出極佳的線性增長趨勢,這意味著隨著算力資源的增加,訓練速度幾乎同步倍增,充分證明了國產集群在大規(guī)模并行計算和通信調度上的成熟度,并具備支持萬卡級訓練的能力。
此次摩爾線程與智源研究院的深度合作,將進一步加速具身智能從實驗室走向產業(yè)落地的進程,為行業(yè)提供可復制、可規(guī)?;摹皣a算力訓練范式”,為中國具身智能產業(yè)提供了一個自主、開放、高效的算力底座。

