Переносит движения, мимику и жесты из одного видео на персонажа с вашей картинки, превращая статичное изображение в ролик. Цена: 8 ₽ за секунду видео (до 30 секунд, округление вверх).
DreamActor V2 - нейросеть для “оживления” картинки по примеру видео. Вы загружаете изображение персонажа (это может быть человек, рисунок, аниме-персонаж или даже не-человек), добавляете короткое “ведущее” видео, и модель переносит движения, мимику и общую пластику из видео на персонажа на картинке.
По заявлениям создателей и описаниям модели, DreamActor V2 заточена именно под перенос движения (motion transfer): она старается сохранять личность/внешность персонажа на протяжении всего ролика, делать движение более ровным без мерцания, и работать не только с крупными портретами, но и с более “дальним планом” вплоть до полуфигуры/фигуры. Также отдельно подчёркивают, что модель хорошо справляется с не-человеческими персонажами и сценами с несколькими персонажами.
Проще всего думать так:
Нейросеть “снимает” движение из видео и аккуратно накладывает его на персонажа с картинки, стараясь не превратить лицо в “маску” и не ломать детали вроде причёски или контуров.
В интерфейсе всего два основных входа:
DreamActor V2 - это не “текст-в-видео” и не “просто оживление по одному фото”. Её сильная сторона - именно перенос движения из конкретного видео, когда вам важно повторить мимику/жесты/темп. В описаниях модели отдельно выделяют стабильность во времени (меньше мерцания) и то, что она часто лучше держит не-человеческих и мультяшных персонажей, а также может работать с несколькими персонажами в кадре.