Runway新功能「運動筆刷」再次驚豔AI圈:隨手一塗,圖片就動起來了

原文來源:機器之心

圖片來源:由無界 AI生成

一段五十秒的預告視頻,再次讓 AI 圈沸騰了。

昨日 Runway 宣佈,即將在視頻生成工具 Gen-2 中上線「Motion Brush」(運動筆刷)功能,一種可控制生成內容移動的新方法。

這次的玩法,甚至不需要輸入文字,只要有手就夠了。

任選一張圖片,畫筆塗抹到哪裡,哪裡就立刻動起來:

不管是水流、雲彩、火焰、煙霧還是人物,都能高度還原其動態。 這就是傳說中的「點石成金」嗎?

網友看完表示:我都不敢想像一年後的視頻技術會有多先進......

畢竟在 2023 年初,從文本生成視頻還是一件相當困難的事情。

Runway 曾在今年 2 月推出了 Gen-1,功能非常豐富,包括風格化、故事版、蒙版、渲染、自定義等等。 看起來,這是一個專注於「編輯」視頻的工具。

但今年 3 月,Gen-2 的面世改變了一切,它新增了文字、圖片生成視頻功能。 使用者僅需輸入文字、圖像或文字加圖像的描述,Gen-2 即可在很短的時間內生成相關視頻。

這是市場上第一個公開可用的文本到視頻模型。 比如輸入一段純文字「午後的陽光透過紐約閣樓的窗戶照進來」,Gen-2 會直接「腦補」出視頻:

現在,只需幾個 和手勢,我們就能生成像樣的視頻並進一步編輯,複雜的視頻編輯軟體和冗長的製作流程一去不復返。

如果將文生圖神器 Midjourney 與文生視頻神器 Gen-2 結合起來使用,使用者完全可以不動筆,直出大片。

當然,Gen-2 也是有競爭對手的,就是 Pika Labs,特別是後者還是免費的。

* Pika Labs 產生的更多螢幕。 *

對於這種瘋狂卷的態勢,一部分使用者是非常期待的:「2024 年,Pika Labs 和 Runway 之間的拉扯一定很有意思。 」

傳聞中,OpenAI 也有視頻生成相關的技術。 有網友表示:「這讓我不禁好奇,OpenAI 的 any-to-any 模型在生成視頻方面究竟有多出色,因為這家公司通常都走在別人前面。 」

未來的視頻和電影製作行業,會因此而顛覆嗎?

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)