2024年7月4日,MediaTek(聯(lián)發(fā)科技)與快手共同宣布,推出高效端側(cè)視頻生成技術(shù),共同探索并推進(jìn)生成式AI技術(shù)的革新。該技術(shù)是對2024 世界移動(dòng)通信大會(huì)(MWC 2024)上初次亮相的視頻生成技術(shù)的延續(xù)與提升,結(jié)合快手的AI模型I2V(image to video)Adapter與MediaTek天璣9300、天璣8300移動(dòng)平臺強(qiáng)勁的AI算力,在端側(cè)實(shí)現(xiàn)由靜態(tài)圖像生成動(dòng)態(tài)視頻的創(chuàng)新體驗(yàn)。通過這項(xiàng)技術(shù),用戶只需在設(shè)備上選取圖片,應(yīng)用即可智能地識別照片中的人物和場景,生成自然流暢的視頻佳作,顯著提升了視頻制作的創(chuàng)意表現(xiàn)和效率。
雙方的合作充分借助MediaTek天璣移動(dòng)平臺先進(jìn)的AI技術(shù),攜手攻克了模型底層適配優(yōu)化及上層開發(fā)的系列技術(shù)及工程難題,為用戶帶來讓人耳目一新的端側(cè)生成式AI體驗(yàn),將改變用戶創(chuàng)作和分享內(nèi)容的方式。
I2V-Adapter是快手AI團(tuán)隊(duì)提出的一種適用于基于Stable Diffusion文生視頻擴(kuò)散模型的輕量級適配模塊,作為即插即用的擴(kuò)散模型輕量級模塊,專門用于由圖像到視頻的生成任務(wù)。該模塊能夠在不需要改變現(xiàn)有文本到視頻生成(T2V)模型原始結(jié)構(gòu)和預(yù)訓(xùn)練參數(shù)的情況下,將靜態(tài)圖像轉(zhuǎn)換成動(dòng)態(tài)視頻。此外,其解耦設(shè)計(jì)使得該方案能夠與DreamBooth、LoRa、ControlNet等模塊無縫兼容,實(shí)現(xiàn)客制化和可控的圖像到視頻生成。
MediaTek天璣9300和天璣8300移動(dòng)平臺集成了先進(jìn)的NPU(神經(jīng)網(wǎng)絡(luò)處理單元),為生成式AI而設(shè)計(jì),提供強(qiáng)勁算力和能效。在圖像生成視頻的應(yīng)用中,NPU可顯著加速AI模型的運(yùn)算,結(jié)合與快手I2V Adapter模型的適配和優(yōu)化,實(shí)現(xiàn)更快的視頻生成速度,同時(shí)兼具低功耗特性。天璣移動(dòng)平臺可結(jié)合深度學(xué)習(xí)和實(shí)時(shí)渲染技術(shù),對圖像內(nèi)容進(jìn)行深度分析,捕捉關(guān)鍵幀,并據(jù)此生成流暢、逼真的視頻畫面效果。同時(shí),MediaTek的實(shí)時(shí)渲染技術(shù)可確保視頻在各類設(shè)備上均能帶來高畫質(zhì)表現(xiàn)。
全球短視頻市場正迎來高速增長期,行業(yè)對創(chuàng)新、高效的視頻生成技術(shù)的需求日益迫切。MediaTek與快手基于對市場需求和趨勢的深刻洞察,為廣大用戶帶來更加先進(jìn)、便捷的視頻生成工具,共同推動(dòng)短視頻生態(tài)的繁榮發(fā)展。未來,雙方將持續(xù)深化合作,推動(dòng)生成式AI技術(shù)的進(jìn)一步發(fā)展,滿足市場不斷變化的需求,共同開創(chuàng)和探索短視頻技術(shù)的新紀(jì)元。