
Стартап Midjourney представил свою новую разработку – крупную языковую модель V1, предназначенную для создания видеоконтента.
В официальном заявлении компании подчеркивается, что после нескольких лет работы над генерацией изображений, они видят будущее за моделями, способными к созданию интерактивных симуляций открытого мира. V1 позиционируется как важный шаг в этом направлении, и компания планирует активно изучать потребности пользователей, чтобы определить дальнейшие направления развития.
V1 – это ИИ-модель, преобразующая изображения в видео. Пользователь загружает изображение, а ИИ генерирует четыре коротких ролика по пять секунд на его основе. Понравившееся видео можно сделать длиннее.
Нейросеть предлагает два режима работы: автоматический, который обеспечивает движение объектов в кадре, и “ручной”, позволяющий пользователям задавать собственные параметры анимации через промпты.
Модель также имеет два режима качества: “низкий” и “высокий”. “Низкий” режим оптимален для сцен со статичной камерой и движущимися объектами, а “высокий” – для динамичных видео.
В настоящее время модель доступна в тестовом режиме для подписчиков базового уровня. Создание видеоролика требует значительно больше ресурсов Midjourney, чем генерация изображений.
Разработчики обещают улучшить производительность, качество и добавить новые возможности. Стоит отметить, что ранее Disney и Universal обвинили Midjourney в нарушении авторских прав и незаконном использовании персонажей, принадлежащих киностудиям.