出典: Heart of the Machine 画像ソース: Unbounded AIによって生成50秒のティーザー動画は、再びAIサークルを沸騰させました。昨日 Runway Gen-2の「モーションブラシ」機能の発売を発表しました。 今回は、手さえあればテキストを入力する必要さえありません。任意の画像を選択すると、ブラシを適用した場所に関係なく、すぐに移動します。   水、雲、炎、煙、人など、それらはすべてダイナミクスに高度に復元できます。 これは伝説の「石を金に変える」のでしょうか? それを読んだ後、ネチズンは言いました:1年後にビデオ技術がどれほど進歩しているか想像できません... 結局のところ、2023年の初めに、テキストからビデオを生成することはまだ非常に難しいことです。Runway は今年の 2 月に Gen-1 を発売し、スタイライゼーション、ストーリーボード、マスキング、レンダリング、カスタマイズなど、非常に豊富な機能を備えています。 動画の「編集」に特化したツールだそうです。しかし、今年の3月、Gen-2はテキスト、画像、ビデオの追加ですべてを変えました。 ユーザーはテキスト、画像、またはテキストと画像の説明を入力するだけでよく、Gen-2はわずかな時間で関連するビデオを生成できます。これは、市場で初めて公開されているテキストからビデオへのモデルです。 たとえば、「ニューヨークの屋根裏部屋の窓から午後の太陽が差し込む」というテキストを入力すると、Gen-2はビデオを直接「頭脳」化します。 今では、ほんの少しのジェスチャーとジェスチャーで、まともなビデオを生成してさらに編集することができ、複雑なビデオ編集ソフトウェアと長い制作パイプラインは過去のものです。文生の画像アーティファクトであるMidjourneyと、文生のビデオアーティファクトであるGen-2を組み合わせると、ユーザーはペンを使わずに完全に大ヒット作を撮影することができます。もちろん、Gen-2には競争相手であるPika Labsもあります。 *以上画面由 Pika Labs 生成。 *一部のユーザーは、このクレイジーなボリュームを楽しみにしています:「2024年には、Pika LabsとRunwayの間の綱引きが興味深いものになるでしょう。 」 OpenAIは、ビデオ生成に関連する技術も持っていると噂されています。 あるネチズンは、「OpenAIのany-to-anyモデルが動画の生成にどれほど優れているのか疑問に思います。なぜなら、この会社は通常、他の会社よりも進んでいるからです。 」 これからの映像・映画制作業界は、これによって混乱に陥るのでしょうか。
Runwayの新機能「スポーツブラシ」は、ペイントするとすぐに絵が動きます
出典: Heart of the Machine
50秒のティーザー動画は、再びAIサークルを沸騰させました。
昨日 Runway Gen-2の「モーションブラシ」機能の発売を発表しました。
任意の画像を選択すると、ブラシを適用した場所に関係なく、すぐに移動します。
Runway は今年の 2 月に Gen-1 を発売し、スタイライゼーション、ストーリーボード、マスキング、レンダリング、カスタマイズなど、非常に豊富な機能を備えています。 動画の「編集」に特化したツールだそうです。
しかし、今年の3月、Gen-2はテキスト、画像、ビデオの追加ですべてを変えました。 ユーザーはテキスト、画像、またはテキストと画像の説明を入力するだけでよく、Gen-2はわずかな時間で関連するビデオを生成できます。
これは、市場で初めて公開されているテキストからビデオへのモデルです。 たとえば、「ニューヨークの屋根裏部屋の窓から午後の太陽が差し込む」というテキストを入力すると、Gen-2はビデオを直接「頭脳」化します。
文生の画像アーティファクトであるMidjourneyと、文生のビデオアーティファクトであるGen-2を組み合わせると、ユーザーはペンを使わずに完全に大ヒット作を撮影することができます。
もちろん、Gen-2には競争相手であるPika Labsもあります。
一部のユーザーは、このクレイジーなボリュームを楽しみにしています:「2024年には、Pika LabsとRunwayの間の綱引きが興味深いものになるでしょう。 」