La nouvelle fonctionnalité de Gen-2 « Magic Brush Ma Liang » a explosé, les internautes : Urgent

Source de l’article : qubits

Source de l’image : Généré par Unbounded AI

L’IA a évolué à ce point pour s’engager dans la génération de vidéos ?!

Faites glisser votre doigt sur une photo pour faire bouger la cible de votre choix !

Il s’agit évidemment d’un camion à l’arrêt, mais il se déplace avec un pinceau, et même la lumière et l’ombre sont parfaitement restituées :

À l’origine, ce n’était qu’une photo d’un incendie, mais maintenant il peut faire monter les flammes dans le ciel d’un simple glissement de la main, et la chaleur arrive :

Si vous continuez comme ça, vous ne pouvez pas faire la différence entre les photos et les vraies vidéos !

Il s’avère qu’il s’agit d’une nouvelle fonctionnalité créée par Runway pour le logiciel vidéo AI Gen-2, qui peut faire bouger les objets de l’image avec une peinture et un pinceau, et le degré de réalisme n’est pas inférieur à celui du stylo magique Ma Liang.

Bien qu’il ne s’agisse que d’un échauffement de fonction, il a explosé sur Internet dès que l’effet est sorti :

Voyant que les internautes se sont transformés en rois anxieux un par un, ils ont crié « J’ai hâte d’essayer une vague » :

Runway a également publié plus de fonctionnalités pour réchauffer l’effet, jetons un coup d’œil.

De la photo à la vidéo, déplacez-vous où que vous soyez

Cette nouvelle fonctionnalité sur la piste s’appelle Motion Brush.

Comme son nom l’indique, il vous suffit d’utiliser ce pinceau pour « peindre » n’importe quel objet de l’image pour le faire bouger.

Non seulement il peut s’agir d’une personne statique, mais même le mouvement de la jupe et de la tête est naturel :

Il peut également s’agir d’un liquide qui coule comme une cascade, et même la brume peut être restaurée :

Ou une cigarette qui n’a pas encore été éteinte :

Un feu de joie brûlant devant tout le monde :

Les arrière-plans plus grands peuvent également être rendus dynamiques, même en modifiant les effets d’ombre et de lumière de l’image, tels que les nuages sombres qui se déplacent rapidement :

Bien sûr, ce sont toutes des « cartes lumineuses » qui prennent l’initiative de vous dire qu’ils ont « fait quelque chose » avec les photos.

Les vidéos suivantes, sans traces de frottis, sont presque totalement impossibles à distinguer des ingrédients modifiés par l’IA :

Une série d’effets ont explosé, ce qui a également conduit au fait que la fonction n’a pas été officiellement publiée, et les internautes ne peuvent pas attendre.

Beaucoup de gens essaient de comprendre comment cette fonctionnalité est implémentée. Il y a aussi des internautes qui prêtent plus d’attention à la date de sortie de la fonction, et espèrent que le lien sera directement sur le 321 (tête de chien manuelle)

Vous pouvez en effet vous attendre à une vague.

Mais il n’y a pas que cette nouvelle fonctionnalité Motion Brush que Runway a introduite.

La récente vague d’avancées générées par l’IA semble indiquer que le domaine de la génération vidéo est vraiment sur le point d’inaugurer une explosion technologique.

La vidéo générée par l’IA a-t-elle vraiment le vent en poupe ?

Tout comme ces derniers jours, certains internautes ont développé une nouvelle façon de jouer au très populaire logiciel d’animation Wensheng Animatediff.

Combiné avec les dernières recherches, LCM-LORA, il ne faut que 7 secondes pour générer une vidéo animée de 16 images.

LCM-LoRa est une nouvelle technologie de génération d’images IA de l’Université Tsinghua et de Hugging Face, qui peut améliorer considérablement la vitesse de génération d’images de Stable Diffusion.

Parmi eux, le LCM (Latent Consistency Models) est une nouvelle méthode de génération d’images basée sur le « modèle de cohérence » d’OpenAI plus tôt cette année, qui peut rapidement générer 768×768 images haute résolution.

Cependant, le LCM n’est pas compatible avec les modèles existants, c’est pourquoi l’Université Tsinghua et les membres de Huhuyan ont publié une nouvelle version du modèle LCM-LoRa, qui peut être compatible avec tous les modèles de diffusion stable et accélérer la vitesse de dessin.

Combiné avec Animatediff, il ne faut qu’environ 7 secondes pour générer une telle animation :

À l’heure actuelle, LCM-LORA est open source dans Hug Face.

Que pensez-vous des récents progrès dans la génération de vidéos basées sur l’IA, et à quel point êtes-vous loin d’être utilisable ?

Liens de référence :
[1]
[2]

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)