Портрет, сгенерированный ИИ, оживили с помощью другого ИИ: видео
И заставили произнести речь о давних временах, когда приходилось нанимать актеров.
Кстати, на сайте читать удобнее
Современные нейросети относительно неплохо справляются с генерацией статических изображений по описанию пользователя, до генерации моделей или анимаций дело пока не дошло. Художник Фабиан Штельцер попытался найти решение, использовав несколько нейросетей вместо одной.
Сперва Фабиан воспользовался нейросетью Midjourney, чтобы сгенерировать изображение старика в кепке и шарфике. Затем персонаж был анимирован с помощью нейросети Avatarify, умеющей анимировать статические изображения.
Персонаж получившегося ролика произносит речь, озвученной нейросетью Synthesia. Во времена молодости, вспоминает сгенерированный герой, приходилось нанимать актеров — но теперь с этим покончено.
Весь ролик, рассказывает Фабиан, сделан примерно за минуту. Качество генерации изображения все еще не очень, озвучка справляется гораздо лучше, к анимации есть вопросы лишь потому, что сам герой выглядит не особо реалистично.
- Создан ИИ для генерации нюдсов: фото
- Вышла нейросеть Stable Diffusion, генерирующая картинки по описанию на обычных видеокартах
- «Это... ШЕДЕВР»: вышло неофициальное продолжение Half-Life 2, фанаты довольны
- У «Сейлор Мун» была западная версия: вот пилот отмененного сериала
- Автопилот Tesla подорожает до $15000 со «смехотворно дешевых» $12000
- СМИ: у TSMC активно заказывают 3-нм чипы, пока не запущенные в производство