《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 通義千問繼續(xù)開源多模態(tài)模型

通義千問繼續(xù)開源多模態(tài)模型

Qwen2-Audio音頻理解能力刷新行業(yè)最佳水平
2024-08-14
來源:雷鋒網(wǎng)

8 月 13 日消息,阿里通義大模型繼續(xù)開源,Qwen2 系列開源家族新增音頻語言模型 Qwen2-Audio。Qwen2-Audio 可以不需文本輸入,直接進行語音問答,理解并分析用戶輸入的音頻信號,包括人聲、自然音、音樂等。該模型在多個權威測評中都顯著超越先前的最佳模型。通義團隊還同步推出了一套全新的音頻理解模型測評基準,相關論文已入選本周正在舉辦的國際頂會 ACL 2024。

聲音是人類以及許多生命體用以進行交互和溝通的重要媒介,聲音中蘊含豐富的信息,讓大模型學會理解各種音頻信號,對于通用人工智能的探索至為重要。Qwen2-Audio 是通義團隊在音頻理解模型上的新一步探索,相比前一代模型 Qwen-Audio,新版模型有了更強的聲音理解能力和更好的指令跟隨能力。

1.jpg

Qwen2-Audio 可以理解分析音樂  

Qwen2-Audio 是一款大型音頻語言模型(Large Audio-Language Model ,LALM ) ,具備語音聊天和音頻分析兩種使用模式,前者是指用戶可以用語音向模型發(fā)出指令,模型無需自動語音識別(ASR)模塊就可理解用戶輸入;后者是指模型能夠根據(jù)用戶指令分析音頻信息,包括人類聲音、自然聲音、音樂或者多種信號混雜的音頻。Qwen2-Audio 能夠自動實現(xiàn)兩種模式的切換。Qwen2-Audio 支持超過 8 種語言和方言,如中文、英語、法語、意大利語、西班牙語、德語、日語,粵語。

通義團隊同步開源了基礎模型 Qwen2-Audio-7B 及其指令跟隨版本 Qwen2-Audio-7B-Instruct,用戶可以通過 Hugging Face、魔搭社區(qū) ModelScope 等下載模型,也可以在魔搭社區(qū) " 創(chuàng)空間 " 直接體驗模型能力。

2.jpg

Qwen2-Audio 的模型結(jié)構(gòu)與訓練方法  

根據(jù) Qwen2-Audio 技術報告,Qwen2-Audio 的模型結(jié)構(gòu)包含一個 Qwen 大語言模型和一個音頻編碼器。在預訓練階段,依次進行 ASR、AAC 等多任務預訓練以實現(xiàn)音頻與語言的對齊,接著通過 SFT(監(jiān)督微調(diào)) 強化模型處理下游任務的能力,再通過 DPO(直接偏好優(yōu)化)方法加強模型與人類偏好的對齊。

研發(fā)團隊在一系列基準測試集上對模型效果作了評估,包括 LibriSpeech、Common Voice 15、Fleurs、Aishell2、CoVoST2、Meld、Vocalsound 以及通義團隊新開發(fā)的 AIR-Benchmark 基準。在所有任務中,Qwen2-Audio 都顯著超越了先前的最佳模型和它的前代 Qwen-Audio,成為新的 SOTA 模型。

3.jpg

Qwen2-Audio 在多個測評中都顯著超越了先前的最佳模型


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者。如涉及作品內(nèi)容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。