50-секундне тизерне відео знову змусило коло ШІ закипіти.
Вчора Runway оголосила про запуск функції «Motion Brush» у Gen-2, нового способу керування рухом згенерованого контенту.
Цього разу вам навіть не потрібно вводити текст, якщо у вас є рука.
Вибирайте будь-яке зображення, і куди б ви не застосували пензлик, воно буде рухатися відразу:
Будь то вода, хмари, полум'я, дим або люди, всі вони можуть бути сильно відновлені до своєї динаміки. Це легендарне «перетворення каменів на золото»?
Прочитавши його, користувачі мережі сказали: я не уявляю, наскільки просунутою буде відеотехнологія через рік...
Адже на початку 2023 року генерувати відео з тексту все ще досить складно.
Runway запустила Gen-1 у лютому цього року, і вона дуже багатофункціональна, включаючи стилізацію, розкадровку, маскування, рендеринг, кастомізацію тощо. Складається враження, що це інструмент, який фокусується на «редагуванні» відео.
Але в березні цього року Gen-2 змінив усе, додавши текст, зображення до відео. Користувачам потрібно лише вводити текст, зображення або описи тексту плюс зображення, а Gen-2 може генерувати релевантні відео за частку часу.
Це перша загальнодоступна модель перетворення тексту у відео на ринку. Наприклад, якщо ви введете текст «Післяобіднє сонце світить через вікно нью-йоркського горища», Gen-2 безпосередньо «проведе» відео:
Тепер, за допомогою лише кількох жестів і жестів, ми можемо створювати пристойні відео та редагувати їх далі, а складне програмне забезпечення для редагування відео та довгі виробничі конвеєри залишилися в минулому.
Якщо об'єднати Midjourney, артефакт зображення Wensheng, з Gen-2, відеоартефактом Wensheng, користувачі зможуть повністю знімати блокбастери, не використовуючи ручки.
Звичайно, у Gen-2 є і конкурент – Pika Labs, тим більше, що остання поки що безкоштовна.
* Більше екранів, створених Pika Labs. *
Деякі користувачі з нетерпінням чекають на цей шалений том: «У 2024 році буксир між Pika Labs та Runway буде цікавим. 」
Подейкують, що OpenAI також має технологію, пов'язану з генерацією відео. Один користувач мережі сказав: «Це змушує мене задуматися, наскільки хороша модель OpenAI для створення відео, тому що ця компанія зазвичай випереджає інших. 」
Чи не порушить це індустрію відео- та кіновиробництва майбутнього?
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Нова функція Runway «Спортивний пензель» вкотре вражає коло ШІ: як тільки ви його розфарбуєте, картинка зрушиться з місця
Першоджерело: Heart of the Machine
50-секундне тизерне відео знову змусило коло ШІ закипіти.
Вчора Runway оголосила про запуск функції «Motion Brush» у Gen-2, нового способу керування рухом згенерованого контенту.
Вибирайте будь-яке зображення, і куди б ви не застосували пензлик, воно буде рухатися відразу:
Runway запустила Gen-1 у лютому цього року, і вона дуже багатофункціональна, включаючи стилізацію, розкадровку, маскування, рендеринг, кастомізацію тощо. Складається враження, що це інструмент, який фокусується на «редагуванні» відео.
Але в березні цього року Gen-2 змінив усе, додавши текст, зображення до відео. Користувачам потрібно лише вводити текст, зображення або описи тексту плюс зображення, а Gen-2 може генерувати релевантні відео за частку часу.
Це перша загальнодоступна модель перетворення тексту у відео на ринку. Наприклад, якщо ви введете текст «Післяобіднє сонце світить через вікно нью-йоркського горища», Gen-2 безпосередньо «проведе» відео:
Якщо об'єднати Midjourney, артефакт зображення Wensheng, з Gen-2, відеоартефактом Wensheng, користувачі зможуть повністю знімати блокбастери, не використовуючи ручки.
Звичайно, у Gen-2 є і конкурент – Pika Labs, тим більше, що остання поки що безкоштовна.
Деякі користувачі з нетерпінням чекають на цей шалений том: «У 2024 році буксир між Pika Labs та Runway буде цікавим. 」