8月30日消息,阿里通義千問(wèn)發(fā)布第二代視覺(jué)語(yǔ)言模型Qwen2-VL。其中,旗艦?zāi)P?a class="innerlink" href="http://ihrv.cn/tags/Qwen2-VL-72B" target="_blank">Qwen2-VL-72B的API已上線阿里云百煉平臺(tái)。
據(jù)了解,Qwen2-VL在多個(gè)權(quán)威測(cè)評(píng)中刷新了多模態(tài)模型的最佳成績(jī),在部分指標(biāo)上甚至超越了GPT-4o和Claude3.5-Sonnet等閉源模型。
2023年8月,通義千問(wèn)開(kāi)源第一代視覺(jué)語(yǔ)言理解模型Qwen-VL,成為開(kāi)源社區(qū)最受歡迎的多模態(tài)模型之一。
短短一年內(nèi),模型下載量突破1000萬(wàn)次。目前,多模態(tài)模型在手機(jī)、車(chē)端等各類(lèi)視覺(jué)識(shí)別場(chǎng)景的落地正在加速,開(kāi)發(fā)者和應(yīng)用企業(yè)也格外關(guān)注Qwen-VL的升級(jí)迭代。
相比上代模型,Qwen2-VL的基礎(chǔ)性能全面提升??梢宰x懂不同分辨率和不同長(zhǎng)寬比的圖片,在MathVista、DocVQA、RealWorldQA、MTVQA等基準(zhǔn)測(cè)試創(chuàng)下全球領(lǐng)先的表現(xiàn)。
此外,Qwen2-VL可以理解20分鐘以上長(zhǎng)視頻,支持基于視頻的問(wèn)答、對(duì)話和內(nèi)容創(chuàng)作等應(yīng)用。同時(shí),具備強(qiáng)大的視覺(jué)智能體能力,可自主操作手機(jī)和機(jī)器人,借助復(fù)雜推理和決策的能力,Qwen2-VL可以集成到手機(jī)、機(jī)器人等設(shè)備,根據(jù)視覺(jué)環(huán)境和文字指令進(jìn)行自動(dòng)操作。
該模型還能理解圖像視頻中的多語(yǔ)言文本,包括中文、英文,大多數(shù)歐洲語(yǔ)言,日語(yǔ)、韓語(yǔ)、阿拉伯語(yǔ)、越南語(yǔ)等。
通義千問(wèn)團(tuán)隊(duì)從六個(gè)方面評(píng)估了模型能力,包括綜合的大學(xué)題目、數(shù)學(xué)能力、文檔表格多語(yǔ)言文字圖像的理解、通用場(chǎng)景問(wèn)答、視頻理解、Agent 能力。
Qwen2-VL-72B 在大部分的指標(biāo)上都達(dá)到了最優(yōu),甚至超過(guò)了 GPT-4o 和 Claude3.5-Sonnet 等閉源模型,在文檔理解方面優(yōu)勢(shì)尤其明顯,僅在綜合的大學(xué)題目方面與GPT-4o 存在差距。