亚洲精品国产a久久久久久,亚洲 激情 ,欧美精品,亚洲av日韩综合一区在线观看,亚洲精品不卡av在线播放,无码国产69精品久久久久同性

資訊在沃

FramePack新技術(shù):6GB顯存顯卡也能高效生成高質(zhì)量長視頻

   發(fā)布時間:2025-04-20 23:27 作者:楊凌霄

近日,GitHub平臺上的Lvmin Zhang與斯坦福大學的研究者Maneesh Agrawala攜手,推出了一項名為framePack的創(chuàng)新技術(shù),該技術(shù)在視頻擴散模型中融入了固定長度的時域上下文機制,使得生成長時長、高質(zhì)量視頻的效率顯著提升。

經(jīng)過實際測試,基于framePack架構(gòu)、擁有130億參數(shù)的模型,僅需配備6GB顯存的顯卡,便能輕松生成長達60秒的視頻內(nèi)容。這一突破性進展,無疑為視頻生成領(lǐng)域帶來了全新的可能性。

framePack作為一種先進的神經(jīng)網(wǎng)絡(luò)架構(gòu),采用了多級優(yōu)化策略,實現(xiàn)了本地AI視頻的高效生成。值得注意的是,盡管其底層基于定制版的騰訊混元模型構(gòu)建,但現(xiàn)有的預訓練模型同樣可以通過framePack進行微調(diào)與適配,大大拓寬了其應用范圍。

傳統(tǒng)的視頻擴散模型在生成視頻時,需要逐步處理帶有噪音的幀,并預測下一個噪音減少的幀。這一過程中,每生成一幀所需輸入的幀數(shù)量,即時域上下文長度,會隨著視頻長度的增加而不斷增加,對顯存提出了極高的要求。通常而言,至少需要12GB的顯存才能勉強應對,顯存不足則會導致視頻生成時間短、質(zhì)量差、耗時長等問題。

相比之下,framePack通過智能評估輸入幀的重要性,對所有幀進行壓縮處理,將其轉(zhuǎn)化為固定的上下文長度,從而顯著降低了對顯存的需求。這一創(chuàng)新使得framePack的視頻生成計算消耗與圖片擴散模型相當,更加高效節(jié)能。同時,每一幀畫面生成后都會實時呈現(xiàn),為用戶提供了便捷的即時預覽體驗。

framePack還有效緩解了視頻生成中的“漂移”現(xiàn)象,即隨著視頻長度的增加,質(zhì)量逐漸下降的問題。通過framePack技術(shù),可以在不顯著犧牲視頻質(zhì)量的前提下,生成更長的視頻內(nèi)容,滿足用戶對高質(zhì)量長視頻的迫切需求。

在數(shù)據(jù)格式與硬件支持方面,framePack表現(xiàn)出色。它支持FP16、BF16等數(shù)據(jù)格式,兼容RTX 50、RTX 40、RTX 30系列顯卡(除RTX 3050 4GB外),幾乎涵蓋了所有近代顯卡。然而,對于RTX 20系列及更老的顯卡,以及AMD、Intel處理器的需求,framePack尚未進行驗證。

操作系統(tǒng)方面,framePack支持Windows和Linux兩大主流平臺,為用戶提供了靈活的選擇空間。在性能方面,經(jīng)過teacache優(yōu)化的RTX 4090顯卡,每秒可生成約0.6幀視頻內(nèi)容,展現(xiàn)了framePack技術(shù)的強大實力。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容
本欄最新