記事のソース: 量子ビット 画像ソース: Unbounded AIによって生成AIはここまで進化し、映像生成に携わる!?写真をスワイプして、選択したターゲットを動かしましょう! 明らかに静止したトラックですが、ブラシで駆け上がり、光と影さえも完璧に復元されています。 もともとはただの火の写真でしたが、今では手のスワイプで炎を空に舞い上がらせることができ、熱がやってきます。 このままでは、写真と実際の動画の区別がつかなくなります。これはRunwayがAIビデオソフトウェア**Gen-2**用に作成した新機能であり、1枚の絵画とブラシで画像内のオブジェクトを動かすことができ、その臨場感の度合いは魔法のペンMa Liangに劣らないことがわかりました。これは単なる機能ウォームアップですが、効果が出るとすぐにインターネットで爆発しました。 ネチズンが次々と不安な王様になっていくのを見て、彼らは「波を試すのが待ちきれない」と叫びました。  Runwayは、効果をウォームアップするためのより多くの機能もリリースしました、見てみましょう。## **写真からビデオへ、指差す場所に移動**滑走路のこの新機能は、モーションブラシと呼ばれています。名前が示すように、このブラシを使用して、画像内のオブジェクトを「ペイント」するだけで、オブジェクトを動かすことができます。静止している人だけでなく、スカートや頭の動きも自然です。 また、滝のように流れる液体にすることもでき、霧も復元できます。 または、まだ消えていないタバコ: みんなの前で燃えている焚き火: 大きな背景をダイナミックにすることもでき、急速に移動する暗い雲など、画像の光と影の効果を変更することもできます。 もちろん、これらはすべてRunwayの「明るいカード」であり、写真で「何かをした」ことを率先して伝えます。以下のスミアマークのない動画は、AIが改変した成分とほぼ完全に見分けがつきません。 一連の効果が爆発し、機能が正式にリリースされていないという事実にもつながり、ネチズンは待ちきれません。多くの人がこの機能がどのように実装されているかを理解しようとしています。 また、機能がいつリリースされるかにもっと注意を払い、リンクが321(手動ドッグヘッド)に直接表示されることを望んでいるネチズンもいます 確かに波が期待できます。しかし、Runwayが導入したのは、この新しいモーションブラシ機能だけではありません。最近のAIによる進歩は、ビデオ生成の分野が本当に技術的爆発の到来を告げようとしていることを示しているようです。## **AI生成動画は本当に増えているのか?過去数日間と同様に、一部のネチズンは、非常に人気のある Wensheng アニメーション ソフトウェア Animatediff を再生する新しい方法を開発しました。 最新の研究であるLCM-LORAと組み合わせると、16フレームのアニメーションビデオを生成するのに**7秒**しかかかりません。LCM-LoRaは、清華大学とHugging Faceの新しいAI画像生成技術であり、Stable Diffusionの画像生成速度を大幅に向上させることができます。その中でもLCM(Latent Consistency Models)は、今年初めにOpenAIが発表した「Consistency Model」に基づく新しい画像生成手法で、768×768枚の高解像度画像を高速に生成することができます。ただし、LCMは既存のモデルと互換性がないため、清華大学とHuhuyanのメンバーは、すべてのStable Diffusionモデルと互換性があり、描画速度を高速化できるLCM-LoRaモデルの新しいバージョンをリリースしました。 Animatediff と組み合わせると、このようなアニメーションを生成するのに約 7 秒しかかかりません。 現在、LCM-LORAはHug Faceでオープンソース化されています。 昨今のAI動画生成の進歩についてどう感じ、使い勝手がどこまで上がっているのか。参考リンク: [1] [2]
Gen-2の新機能「Magic Brush Ma Liang」が爆発、ネチズン:緊急
記事のソース: 量子ビット
AIはここまで進化し、映像生成に携わる!?
写真をスワイプして、選択したターゲットを動かしましょう!
これはRunwayがAIビデオソフトウェアGen-2用に作成した新機能であり、1枚の絵画とブラシで画像内のオブジェクトを動かすことができ、その臨場感の度合いは魔法のペンMa Liangに劣らないことがわかりました。
これは単なる機能ウォームアップですが、効果が出るとすぐにインターネットで爆発しました。
写真からビデオへ、指差す場所に移動
滑走路のこの新機能は、モーションブラシと呼ばれています。
名前が示すように、このブラシを使用して、画像内のオブジェクトを「ペイント」するだけで、オブジェクトを動かすことができます。
静止している人だけでなく、スカートや頭の動きも自然です。
以下のスミアマークのない動画は、AIが改変した成分とほぼ完全に見分けがつきません。
多くの人がこの機能がどのように実装されているかを理解しようとしています。 また、機能がいつリリースされるかにもっと注意を払い、リンクが321(手動ドッグヘッド)に直接表示されることを望んでいるネチズンもいます
しかし、Runwayが導入したのは、この新しいモーションブラシ機能だけではありません。
最近のAIによる進歩は、ビデオ生成の分野が本当に技術的爆発の到来を告げようとしていることを示しているようです。
**AI生成動画は本当に増えているのか?
過去数日間と同様に、一部のネチズンは、非常に人気のある Wensheng アニメーション ソフトウェア Animatediff を再生する新しい方法を開発しました。
LCM-LoRaは、清華大学とHugging Faceの新しいAI画像生成技術であり、Stable Diffusionの画像生成速度を大幅に向上させることができます。
その中でもLCM(Latent Consistency Models)は、今年初めにOpenAIが発表した「Consistency Model」に基づく新しい画像生成手法で、768×768枚の高解像度画像を高速に生成することができます。
ただし、LCMは既存のモデルと互換性がないため、清華大学とHuhuyanのメンバーは、すべてのStable Diffusionモデルと互換性があり、描画速度を高速化できるLCM-LoRaモデルの新しいバージョンをリリースしました。
参考リンク:
[1] [2]