圖像塗哪就動哪!Gen-2新功能“神筆馬良”爆火,網友:急急急

文章來源:量子位

圖片來源:由無界 AI生成

AI搞視頻生成,已經進化到這個程度了?!

對著一張照片隨手一刷,就能讓被選中的目標動起來!

明明是一輛靜止的卡車,一刷就跑了起來,連光影都完美還原:

原本只是一張火災照片,現在隨手一刷就能讓火焰直衝天際,熱度撲面而來:

這樣下去,哪還分得清照片和實拍視頻!

原來,這是Runway給AI視頻軟體Gen-2打造的新功能,一塗一刷就能讓圖像中的物體動起來,逼真程度不亞於神筆馬良。

雖然只是個功能預熱,不過效果一出就在網上爆火:

看得網友一個個變身急急國王,直呼「等不及想要嘗試一波」:

Runway同時還放出了更多功能預熱效果,一起來看看。

照片變視頻,指哪就動哪

這個Runway新出的功能,叫做運動筆刷(Motion Brush)。

顧名思義,只需要用這個筆刷對著畫面中的任意物件“塗”一下,就能讓他們動起來。

不僅可以是靜止的人,連裙擺和頭部的動作都很自然:

還可以是流動的液體如瀑布,連霧氣都能還原:

或者是一根還沒熄滅的煙:

一團正在眾人面前燃燒的篝火:

更大塊的背景也能做成動態的,甚至改變畫面的光影效果,例如正在飛速移動的烏雲:

當然,上面這些都還是Runway“亮明牌”,主動告訴你他們對照片“做了手腳”。

下面這些沒有塗抹痕跡的視頻,更是幾乎完全看不出有AI修飾的成分在裡面:

一連串效果炸出,也導致功能還沒正式放出來,網友已經迫不及待了。

不少人試圖理解這個功能究竟是怎麼實現的。 也有網友更關注功能啥時候出,希望到時候直接321上連結(手動狗頭)

確實可以期待一波了。

不過,不止是Runway推出的這個Motion Brush新功能。

最近一連串的AI生成進展似乎都在表明,視頻生成領域似乎真要迎來技術大爆發了。

AI生成視頻真要崛起了?

就像在這幾天,還有網友開發了很火的文生動畫軟體Animatediff的新玩法。

只需要結合最新的研究LCM-LORA,生成16幀的動畫視頻只需要7秒鐘的時間。

LCM-LORA是清華大學和Hugging Face新出的一個AI圖片生成技術,可以讓Stable Diffusion的圖片生成速度大幅提升。

其中,LCM(Latent Consistency Models)是基於今年早些時候OpenAI的“一致性模型”提出來的一種圖像生成新方法,能快速生成768×768的高解析度圖片。

但LCM不相容現有模型,因此清華和抱抱臉的成員又新出了一版LCM-LORA模型,可以相容所有Stable Diffusion模型,加速出圖速度。

結合Animatediff軟體,生成一個這樣的動畫只需要7秒鐘左右:

目前LCM-LORA已經在抱抱臉上開源。

你感覺最近的AI視頻生成進展如何,距離可用上還有多遠?

參考連結:
[1] [2]

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)