《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計 > 業(yè)界動態(tài) > 智源發(fā)布原生多模態(tài)世界模型Emu3

智源發(fā)布原生多模態(tài)世界模型Emu3

宣稱實現(xiàn)圖像、文本、視頻大一統(tǒng)
2024-10-22
來源:IT之家

10 月 21 日消息,智源研究院今日發(fā)布原生多模態(tài)世界模型 Emu3。該模型只基于下一個 token 預(yù)測,無需擴(kuò)散模型或組合方法,即可完成文本、圖像、視頻三種模態(tài)數(shù)據(jù)的理解和生成。官方宣稱實現(xiàn)圖像、文本、視頻大一統(tǒng)。

在圖像生成任務(wù)中,基于人類偏好評測,Emu3 優(yōu)于 SD-1.5 與 SDXL 模型。在視覺語言理解任務(wù)中,對于 12 項基準(zhǔn)測試的平均得分,Emu3 優(yōu)于 LlaVA-1.6。在視頻生成任務(wù)中,對于 VBench 基準(zhǔn)測試得分,Emu3 優(yōu)于 OpenSora 1.2。

0.jpg

據(jù)介紹,Emu3 提供了一個強(qiáng)大的視覺 tokenizer,能夠?qū)⒁曨l和圖像轉(zhuǎn)換為離散 token。這些視覺離散 token 可以與文本 tokenizer 輸出的離散 token 一起送入模型中。與此同時,該模型輸出的離散 token 可以被轉(zhuǎn)換為文本、圖像和視頻,為 Any-to-Any 的任務(wù)提供了更加統(tǒng)一的研究范式。

0.jpg

▲ Emu3 生成的圖像

Emu3 研究結(jié)果證明,下一個 token 預(yù)測可以作為多模態(tài)模型的一個強(qiáng)大范式,實現(xiàn)超越語言本身的大規(guī)模多模態(tài)學(xué)習(xí),并在多模態(tài)任務(wù)中實現(xiàn)先進(jìn)的性能。通過將復(fù)雜的多模態(tài)設(shè)計收斂到 token 本身,能在大規(guī)模訓(xùn)練和推理中釋放巨大的潛力。

目前 Emu3 已開源了關(guān)鍵技術(shù)和模型


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。