Une vidéo teaser de 50 secondes a une fois de plus fait bouillir le cercle de l’IA.
Hier, Runway a annoncé le lancement de la fonction « Motion Brush » dans Gen-2, une nouvelle façon de contrôler le mouvement du contenu généré.
Cette fois, vous n’avez même pas besoin de saisir du texte, tant que vous avez une main.
Choisissez n’importe quelle image, et quel que soit l’endroit où vous appliquez le pinceau, il se déplacera immédiatement :
Qu’il s’agisse d’eau, de nuages, de flammes, de fumée ou de personnes, ils peuvent tous être restaurés dans leur dynamique. S’agit-il de la légendaire « transformation des pierres en or » ?
Après l’avoir lu, les internautes ont déclaré : Je ne peux pas imaginer à quel point la technologie vidéo sera avancée un an plus tard...
Après tout, en ce début d’année 2023, générer des vidéos à partir de texte est encore assez difficile à faire.
Runway a lancé Gen-1 en février de cette année, et il est très riche en fonctionnalités, notamment la stylisation, le storyboard, le masquage, le rendu, la personnalisation, etc. Il semble qu’il s’agisse d’un outil qui se concentre sur le « montage » de vidéos.
Mais en mars de cette année, Gen-2 a tout changé avec l’ajout du texte, de l’image à la vidéo. Les utilisateurs n’ont qu’à saisir du texte, des images ou des descriptions textuelles et d’images, et Gen-2 peut générer des vidéos pertinentes en une fraction du temps.
Il s’agit du premier modèle de synthèse vidéo accessible au public sur le marché. Par exemple, si vous tapez un texte « Le soleil de l’après-midi brille à travers la fenêtre d’un grenier de New York », Gen-2 va directement « cerveau » la vidéo :
Maintenant, avec seulement quelques gestes et gestes, nous pouvons générer des vidéos décentes et les éditer davantage, et les logiciels de montage vidéo complexes et les longs pipelines de production appartiennent au passé.
Si vous combinez Midjourney, un artefact d’image Wensheng, avec Gen-2, un artefact vidéo Wensheng, les utilisateurs peuvent complètement filmer des blockbusters sans utiliser leur stylo.
Bien sûr, Gen-2 a aussi un concurrent, Pika Labs, d’autant plus que ce dernier est toujours gratuit.
* Plus d’écrans générés par Pika Labs. *
Certains utilisateurs attendent avec impatience ce volume fou : « En 2024, le tiraillement entre Pika Labs et Runway sera intéressant. 」
Selon les rumeurs, OpenAI disposerait également d’une technologie liée à la génération de vidéos. Un internaute a déclaré : « Cela me fait me demander à quel point le modèle any-to-any d’OpenAI est bon pour générer des vidéos, car cette société est généralement en avance sur les autres. 」
L’industrie de la production vidéo et cinématographique du futur en sera-t-elle bouleversée ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La nouvelle fonctionnalité de Runway « Sports Brush » étonne une fois de plus le cercle de l’IA : dès que vous le peignez, l’image bouge
Source originale : Heart of the Machine
Une vidéo teaser de 50 secondes a une fois de plus fait bouillir le cercle de l’IA.
Hier, Runway a annoncé le lancement de la fonction « Motion Brush » dans Gen-2, une nouvelle façon de contrôler le mouvement du contenu généré.
Choisissez n’importe quelle image, et quel que soit l’endroit où vous appliquez le pinceau, il se déplacera immédiatement :
Runway a lancé Gen-1 en février de cette année, et il est très riche en fonctionnalités, notamment la stylisation, le storyboard, le masquage, le rendu, la personnalisation, etc. Il semble qu’il s’agisse d’un outil qui se concentre sur le « montage » de vidéos.
Mais en mars de cette année, Gen-2 a tout changé avec l’ajout du texte, de l’image à la vidéo. Les utilisateurs n’ont qu’à saisir du texte, des images ou des descriptions textuelles et d’images, et Gen-2 peut générer des vidéos pertinentes en une fraction du temps.
Il s’agit du premier modèle de synthèse vidéo accessible au public sur le marché. Par exemple, si vous tapez un texte « Le soleil de l’après-midi brille à travers la fenêtre d’un grenier de New York », Gen-2 va directement « cerveau » la vidéo :
Si vous combinez Midjourney, un artefact d’image Wensheng, avec Gen-2, un artefact vidéo Wensheng, les utilisateurs peuvent complètement filmer des blockbusters sans utiliser leur stylo.
Bien sûr, Gen-2 a aussi un concurrent, Pika Labs, d’autant plus que ce dernier est toujours gratuit.
Certains utilisateurs attendent avec impatience ce volume fou : « En 2024, le tiraillement entre Pika Labs et Runway sera intéressant. 」