激情六月丁香婷婷|亚洲色图AV二区|丝袜AV日韩AV|久草视频在线分类|伊人九九精品视频|国产精品一级电影|久草视频在线99|在线看的av网址|伊人99精品无码|午夜无码视频在线

高校合作1:010-59833514 ?咨詢電話:400-810-1418 服務(wù)與監(jiān)督電話:400-810-1418轉(zhuǎn)接2

Sora不開源,微軟給你開!近Sora視頻模型誕生,12秒生成效果逼真

發(fā)布時(shí)間:2024-03-28 15:29:34 瀏覽量:119次

編輯:編輯部

【新智元導(dǎo)讀】用不了多久,開源版的Sora就會(huì)涌來(lái)!理海大學(xué)微軟團(tuán)隊(duì)已經(jīng)做出一種全新多AI智能體框架Mora,可以完全復(fù)刻Sora能力,且生成視頻效果幾乎不相上下。


微軟版Sora誕生了!

Sora雖爆火但閉源,給學(xué)術(shù)界帶來(lái)了不小的挑戰(zhàn)。學(xué)者們只能嘗試使用逆向工程來(lái)對(duì)Sora復(fù)現(xiàn)或擴(kuò)展。

盡管提出了Diffusion Transformer和空間patch策略,但想要達(dá)到Sora的性能還是很難,何況還缺乏算力和數(shù)據(jù)集。

不過(guò),研究者發(fā)起的新一波復(fù)現(xiàn)Sora的沖鋒,這不就來(lái)了么!

就在剛剛,理海大學(xué)聯(lián)手微軟團(tuán)隊(duì)一種新型的多AI智能體框架———Mora。

論文地址:
https://arxiv.org/abs/2403.13248

沒(méi)錯(cuò),理海大學(xué)和微軟的思路,是靠AI智能體。

Mora更像是Sora的通才視頻生成。通過(guò)整合多個(gè)SOTA的視覺(jué)AI智能體,來(lái)復(fù)現(xiàn)Sora展示的通用視頻生成能力。

具體來(lái)說(shuō),Mora能夠利用多個(gè)視覺(jué)智能體,在多種任務(wù)中成功模擬Sora的視頻生成能力,包括:

- 文本到視頻生成

- 基于文本條件的圖像到視頻生成

- 擴(kuò)展已生成視頻

- 視頻到視頻編輯

- 拼接視頻

- 模擬數(shù)字世界

實(shí)驗(yàn)結(jié)果表明,Mora在這些任務(wù)中取得了接近Sora的表現(xiàn)。

值得一提的是,它在文本到視頻生成任務(wù)中的表現(xiàn)超越了現(xiàn)有的開源模型,在所有模型中排名第二,僅次于Sora。

不過(guò),在整體性能上,與Sora還有著明顯差距。

Mora可根據(jù)文字提示生成高分辨率、時(shí)間連貫的視頻,分辨率為1024 × 576,時(shí)長(zhǎng)12秒,共75幀。

復(fù)刻Sora所有能力


Mora基本上還原了Sora的所有能力,怎么體現(xiàn)?

文本到視頻生成

提示:A vibrant coral reef teeming with life under the crystal-clear blue ocean, with colorful fish swimming among the coral, rays of sunlight filtering through the water, and a gentle current moving the sea plants.

提示:A majestic mountain range covered in snow, with the peaks touching the clouds and a crystal-clear lake at its base, reflecting the mountains and the sky, creating a breathtaking natural mirror.

提示:In the middle of a vast desert, a golden desert city appears on the horizon, its architecture a blend of ancient Egyptian and futuristic elements.The city is surrounded by a radiant energy barrier, while in the air, seve

基于文本條件圖像到視頻的生成

輸入這張經(jīng)典的「SORA字樣的逼真云朵圖像」。

提示:An image of a realistic cloud that spells “SORA”.

Sora模型生成的效果是這樣的。

Mora生成出來(lái)的視頻,絲毫不差。

還有輸入一張小怪獸圖片。

提示:Monster Illustration in flat design style of a diverse family of monsters. The group includes a furry brown monster, a sleek black monster with antennas, a spotted green monster, and a tiny polka-dotted monster, all interacting in a playful environment.

Sora將其轉(zhuǎn)換為視頻的效果,讓這些小怪獸們活靈活現(xiàn)動(dòng)起來(lái)。

Mora雖也讓小怪獸們動(dòng)起來(lái),但是明顯可以看出有些不穩(wěn)定,圖中卡通人物樣子沒(méi)有保持一致。

擴(kuò)展已生成的視頻

先給到一個(gè)視頻

Sora能夠生成穩(wěn)定的AI視頻,而且風(fēng)格一致。

但Mora生成的視頻中,前面騎自行車的人最后自行車沒(méi)了,人也變形了,效果不是很好。

視頻到視頻編輯

給到一個(gè)提示「將場(chǎng)景切換到20世紀(jì)20年代的老式汽車」,并輸入一個(gè)視頻。

Sora經(jīng)過(guò)風(fēng)格替換后,整體看起來(lái)非常絲滑。

Mora這段老式汽車的生成,破舊的有點(diǎn)不真實(shí)。

拼接視頻

輸入兩個(gè)視頻,然后將其完成拼接。

Mora拼接后的視頻

模擬數(shù)字世界

整體接近,但不如Sora


一大波演示之后,大家對(duì)Mora的視頻生成能力有了一定了解。

與OpenAI Sora相比,Mora在六個(gè)任務(wù)中的表現(xiàn)非常接近,不過(guò)也存在著很大的不足。

文本到視頻生成

具體來(lái)說(shuō),Mora的視頻質(zhì)量得分0.792,僅次于第一名Sora的0.797,并且超過(guò)了當(dāng)前最好的開源模型(如VideoCrafter1)。

在對(duì)象一致性方面,Mora得分0.95,與Sora持平,在整個(gè)視頻中都表現(xiàn)出了卓越的一致性。

在下圖中,Mora文本到視頻生成的視覺(jué)保真度非常引人注目,體現(xiàn)了高分辨率圖像以及對(duì)細(xì)節(jié)的敏銳關(guān)注,和對(duì)場(chǎng)景的生動(dòng)描繪。

在基于文本條件的圖像生成任務(wù)中,模型在將圖片和文本指令,轉(zhuǎn)化成連貫視頻能力上,Sora肯定是最完美的。

不過(guò)Mora的結(jié)果,與Sora相差很小。

擴(kuò)展生成的視頻

再來(lái)看擴(kuò)展生成視頻測(cè)試中,在連續(xù)性和質(zhì)量上的結(jié)果,也是Mora與Sora比較接近。

盡管Sora處于領(lǐng)先地位,但Mora的能力,特別是在遵循時(shí)間風(fēng)格和擴(kuò)展現(xiàn)有視頻而不顯著損失質(zhì)量方面,證明了其在視頻擴(kuò)展領(lǐng)域的有效性。

視頻到視頻編輯+視頻拼接

針對(duì)視頻到視頻編輯,Mora在保持視覺(jué)和風(fēng)格連貫性的能力方面接近Sora。還有拼接視頻任務(wù)中,Mora也可以實(shí)現(xiàn)將不同視頻進(jìn)行無(wú)縫拼接。

在這個(gè)示例中,Sora和Mora都被指示將設(shè)置修改為1920年代風(fēng)格,同時(shí)保持汽車的紅色。

模擬數(shù)字世界

還有最后的模擬數(shù)字世界的任務(wù),Mora也能像Sora一樣具備創(chuàng)建虛擬環(huán)境世界的能力。不過(guò)質(zhì)量方面,比Sora差一些。

Mora:基于智能體的視頻生成


Mora這個(gè)多智能體框架,是如何解決當(dāng)前視頻生成模型的局限的?

它的關(guān)鍵,就是通過(guò)將視頻生成過(guò)程分解為多個(gè)子任務(wù),并為每個(gè)任務(wù)指派專門的智能體,來(lái)靈活地完成一系列視頻生成任務(wù),滿足用戶的多樣化需求。

在推理過(guò)程中,Mora會(huì)生成一個(gè)中間圖像或視頻,從而保持文本到圖像模型中的視覺(jué)多樣性、風(fēng)格和質(zhì)量,并增強(qiáng)編輯功能。

通過(guò)高效地協(xié)調(diào)處理從文本到圖像、從圖像到圖像、從圖像到視頻以及從視頻到視頻的轉(zhuǎn)換任務(wù)的智能體,Mora能夠處理一系列復(fù)雜的視頻生成任務(wù),提供出色的編輯靈活性和視覺(jué)真實(shí)度。

總結(jié)來(lái)說(shuō),團(tuán)隊(duì)的主要貢獻(xiàn)如下:

- 創(chuàng)新性的多智能體框架,以及一個(gè)直觀的界面,方便用戶配置不同的組件和安排任務(wù)流程。

- 作者發(fā)現(xiàn),通過(guò)多個(gè)智能體的協(xié)同工作(包括將文本轉(zhuǎn)換成圖像、圖像轉(zhuǎn)換成視頻等),可以顯著提升視頻的生成質(zhì)量。這一過(guò)程從文本開始,先轉(zhuǎn)化為圖像,然后將圖像和文本一起轉(zhuǎn)換成視頻,最后對(duì)視頻進(jìn)行優(yōu)化和編輯。

- Mora在6個(gè)與視頻相關(guān)的任務(wù)中都展現(xiàn)出了卓越的性能,超過(guò)了現(xiàn)有的開源模型。這不僅證明了Mora的高效性,也展示了其作為一個(gè)多用途框架的潛力。

智能體的定義


在視頻生成的不同任務(wù)中,通常需要多個(gè)具有不同專長(zhǎng)的智能體協(xié)同工作,每個(gè)智能體都提供其專業(yè)領(lǐng)域的輸出。

為此,作者定義了5種基本類型的智能體:提示選擇與生成、文本到圖像生成、圖像到圖像生成、圖像到視頻生成、以及視頻到視頻生成。

- 提示選擇與生成智能體:

在開始生成初始圖像之前,文本提示會(huì)經(jīng)過(guò)一系列嚴(yán)格的處理和優(yōu)化步驟。這個(gè)智能體可以利用大型語(yǔ)言模型(如GPT-4)來(lái)精確分析文本,提取關(guān)鍵信息和動(dòng)作,大大提高生成圖像的相關(guān)性和質(zhì)量。

- 文本到圖像生成智能體:

這個(gè)智能體負(fù)責(zé)將豐富的文本描述轉(zhuǎn)化為高質(zhì)量的圖像。它的核心功能是深入理解和可視化復(fù)雜的文本輸入,從而能夠根據(jù)提供的文本描述創(chuàng)建詳細(xì)、準(zhǔn)確的視覺(jué)圖像。

- 圖像到圖像生成智能體:

根據(jù)特定的文本指令修改已有的源圖像。它能夠精確解讀文本提示,并據(jù)此調(diào)整源圖像(從細(xì)微修改到徹底改造)。通過(guò)使用預(yù)訓(xùn)練模型,它能夠?qū)⑽谋久枋雠c視覺(jué)表現(xiàn)有效拼接,實(shí)現(xiàn)新元素的整合、視覺(jué)風(fēng)格的調(diào)整或圖像構(gòu)成的改變。

- 圖像到視頻生成智能體:

在初始圖像生成之后,這個(gè)智能體負(fù)責(zé)將靜態(tài)圖像轉(zhuǎn)化為動(dòng)態(tài)視頻。它通過(guò)分析初始圖像的內(nèi)容和風(fēng)格,生成后續(xù)的幀,確保視頻的連貫性和視覺(jué)一致性,展現(xiàn)了模型理解、復(fù)制初始圖像,以及預(yù)見并實(shí)現(xiàn)場(chǎng)景邏輯發(fā)展的能力。

- 視頻拼接智能體:

這個(gè)智能體通過(guò)選擇性使用兩段視頻的關(guān)鍵幀,確保它們之間平滑且視覺(jué)上一致的過(guò)渡。它能夠準(zhǔn)確識(shí)別兩個(gè)視頻中的共同元素和風(fēng)格,生成既連貫又具有視覺(jué)吸引力的視頻。

智能體的實(shí)現(xiàn)


文本到圖像的生成

研究者利用預(yù)訓(xùn)練的大型文本到圖像模型,來(lái)生成高質(zhì)量且具有代表性的第一張圖像。

第一個(gè)實(shí)現(xiàn),用的是Stable Diffusion XL。

它引入了文本到圖像合成的潛在擴(kuò)散模型的架構(gòu)和方法的重大演變,在該領(lǐng)域樹立了新的基準(zhǔn)。

其架構(gòu)的核心,就是一個(gè)擴(kuò)大的UNet主干網(wǎng)絡(luò),它比Stable Diffusion 2之前版本中使用的主干大三倍。

這種擴(kuò)展主要是通過(guò)增加注意力塊的數(shù)量和更廣泛的交叉注意力上下文來(lái)實(shí)現(xiàn)的,并通過(guò)集成雙文本編碼器系統(tǒng)來(lái)促進(jìn)。

第一個(gè)編碼器基于OpenCLIP ViT-bigG,而第二個(gè)編碼器則利用CLIP ViT-L,通過(guò)拼接這些編碼器的輸出,來(lái)允許對(duì)文本輸入進(jìn)行更豐富、更細(xì)致的解釋。

這種架構(gòu)創(chuàng)新輔以多種新穎的調(diào)節(jié)方案的引入,這些方案不需要外部監(jiān)督,從而增強(qiáng)了模型的靈活性和生成跨多個(gè)長(zhǎng)寬比的圖像的能力。

此外,SDXL還具有一個(gè)細(xì)化模型,該模型采用事后圖像到圖像轉(zhuǎn)換來(lái)提高生成圖像的視覺(jué)質(zhì)量。

此細(xì)化過(guò)程利用噪聲去噪技術(shù),進(jìn)一步完善輸出圖像,而不會(huì)影響生成過(guò)程的效率或速度。

圖像到圖像的生成

在這個(gè)過(guò)程中,研究者用初始框架,實(shí)現(xiàn)了使用InstructPix2Pix作為圖像到圖像生成智能體。

InstructPix2Pix經(jīng)過(guò)精心設(shè)計(jì),可以根據(jù)自然語(yǔ)言指令進(jìn)行有效的圖像編輯。

該系統(tǒng)的核心集成了兩個(gè)預(yù)訓(xùn)練模型的廣泛知識(shí):GPT-3用于根據(jù)文本描述生成編輯指令和編輯后的標(biāo)題;Stable Diffusion用于將這些基于文本的輸入轉(zhuǎn)換為視覺(jué)輸出。

這種巧妙的方法首先在精選的圖像標(biāo)題數(shù)據(jù)集和相應(yīng)的編輯指令上微調(diào)GPT-3,從而產(chǎn)生一個(gè)可以創(chuàng)造性地建議合理編輯并生成修改后的標(biāo)題的模型。

在此之后,通過(guò)Prompt-to-Prompt技術(shù)增強(qiáng)的Stable Diffusion模型,會(huì)根據(jù)GPT-3生成的字幕生成圖像對(duì)(編輯前和后)。

然后在生成的數(shù)據(jù)集上訓(xùn)練InstructPix2Pix核心的條件擴(kuò)散模型。

InstructPix2Pix直接利用文本指令和輸入圖像,在單次前向傳遞中執(zhí)行編輯。

通過(guò)對(duì)圖像和指令條件采用無(wú)分類器指導(dǎo),進(jìn)一步提高了這種效率,使模型能夠平衡原始像的保真度和遵守編輯指令。

圖像到視頻的生成

在文本到視頻生成智能體中,視頻生成代理在確保視頻質(zhì)量和一致性方面發(fā)揮著重要作用。

研究者的第一個(gè)實(shí)現(xiàn),是利用目前的SOTA視頻生成模型Stable Video Diffusion來(lái)生成視頻。

SVD架構(gòu)利用最初為圖像合成而開發(fā)的LDMs Stable Diffusion v2.1的優(yōu)勢(shì),將其功能擴(kuò)展到處理視頻內(nèi)容固有的時(shí)間復(fù)雜性,從而引入了一種生成高分辨率視頻的先進(jìn)方法。

SVD模型的核心遵循三階段訓(xùn)練體系,從文本到圖像相關(guān)開始,模型從一組不同的圖像中學(xué)習(xí)穩(wěn)健的視覺(jué)表示。這個(gè)基礎(chǔ),使模型能夠理解并生成復(fù)雜的視覺(jué)圖案和紋理。

在第二階段,即視頻預(yù)訓(xùn)練中,模型接觸大量視頻數(shù)據(jù),使其能夠通過(guò)將時(shí)間卷積和注意力層與其空間對(duì)應(yīng)層結(jié)合起來(lái)來(lái)學(xué)習(xí)時(shí)間動(dòng)態(tài)和運(yùn)動(dòng)模式。

訓(xùn)練是在系統(tǒng)管理的數(shù)據(jù)集上進(jìn)行的,確保模型從高質(zhì)量且相關(guān)的視頻內(nèi)容中學(xué)習(xí)。

最后階段是高質(zhì)量視頻微調(diào),重點(diǎn)是改進(jìn)模型使用更小但更高質(zhì)量的數(shù)據(jù)集,生成分辨率和保真度更高的視頻的能力。

這種分層訓(xùn)練策略輔以新穎的數(shù)據(jù)管理流程,使SVD能夠出色地生成最先進(jìn)的文本到視頻和圖像到視頻合成,并且隨著時(shí)間的推移,具有非凡的細(xì)節(jié)、真實(shí)性和連貫性。

拼接視頻

對(duì)于這個(gè)任務(wù),研究者利用SEINE來(lái)拼接視頻。

SEINE是基于預(yù)訓(xùn)練的T2V模型LaVie智能體構(gòu)建的。

SEINE以隨機(jī)掩碼視頻擴(kuò)散模型為中心,后者根據(jù)文本描述生成過(guò)渡。

通過(guò)將不同場(chǎng)景的像與基于文本的控制相集成,SEINE可以生成保持連貫性和視覺(jué)質(zhì)量的過(guò)渡視頻。

此外,該模型還可以擴(kuò)展到圖像到視頻動(dòng)畫和白回歸視頻預(yù)測(cè)等任務(wù)。

討論


優(yōu)勢(shì)


- 創(chuàng)新框架與靈活性:

Mora引進(jìn)了一種革命性的多智能體視頻生成框架,大大拓展了此領(lǐng)域的可能性,使得執(zhí)行各種任務(wù)變得可能。

它不僅簡(jiǎn)化了將文本轉(zhuǎn)換成視頻的過(guò)程,還能模擬出數(shù)字世界,展現(xiàn)出前所未有的靈活性和效率。

- 開源貢獻(xiàn):

Mora的開源特性是對(duì)AI社區(qū)一個(gè)重要的貢獻(xiàn),它通過(guò)提供一個(gè)堅(jiān)實(shí)的基礎(chǔ),鼓勵(lì)進(jìn)一步的發(fā)展和完善,為未來(lái)的研究奠定了基礎(chǔ)。

如此一來(lái),不僅可以讓高級(jí)視頻生成技術(shù)更加普及,還促進(jìn)了該領(lǐng)域內(nèi)的合作和創(chuàng)新。

局限性


- 視頻數(shù)據(jù)至關(guān)重要:

想捕捉人類動(dòng)作的細(xì)微差別,就需要高分辨率、流暢的視頻序列。這樣才能夠詳細(xì)展現(xiàn)動(dòng)力學(xué)的各個(gè)方面,包括平衡、姿勢(shì)及與環(huán)境的互動(dòng)。

但高質(zhì)量的視頻數(shù)據(jù)集多來(lái)源于如電影、電視節(jié)目和專有游戲畫面等專業(yè)渠道。其中往往包含受版權(quán)保護(hù)的材料,不易合法收集或使用。

而缺乏這些數(shù)據(jù)集,使得像Mora這樣的視頻生成模型難以模擬人類在現(xiàn)實(shí)環(huán)境中的動(dòng)作,如走路或騎自行車。

- 質(zhì)量與長(zhǎng)度的差距:

Mora雖然可以完成類似Sora的任務(wù),但在涉及大量物體移動(dòng)的場(chǎng)景中,生成的視頻質(zhì)量明顯不高,質(zhì)量隨視頻長(zhǎng)度增加而降低,尤其是在超過(guò)12秒之后。

- 指令跟隨能力:

Mora雖然可以在視頻中包含提示所指定的所有對(duì)象,但它難以準(zhǔn)確解釋和展示提示中描述的運(yùn)動(dòng)動(dòng)態(tài),比如移動(dòng)速度。

此外,Mora還不能控制對(duì)象的運(yùn)動(dòng)方向,比如無(wú)法讓對(duì)象向左或向右移動(dòng)。

這些局限主要是因?yàn)镸ora的視頻生成,是基于圖像轉(zhuǎn)視頻的方法,而不是直接從文本提示中獲取指令。

- 人類偏好對(duì)齊:

由于視頻領(lǐng)域缺少人類的標(biāo)注信息,實(shí)驗(yàn)結(jié)果可能并不總是符合人類的視覺(jué)偏好。

舉個(gè)例子,上面其中的一個(gè)視頻拼接任務(wù),要求生成一個(gè)男性逐漸變成女性的過(guò)渡視頻,看起來(lái)非常不合邏輯。



熱門課程推薦

熱門資訊

請(qǐng)綁定手機(jī)號(hào)

x

同學(xué)您好!

您已成功報(bào)名0元試學(xué)活動(dòng),老師會(huì)在第一時(shí)間與您取得聯(lián)系,請(qǐng)保持電話暢通!
確定