Лучшее  🚀
17.12.2022 в 16:00 Evernews

Посмотрите, как ИИ моментально текстурирует модели

Использовать такое в продакшне вряд ли получится: освещение он тоже рисует.

Кстати, на сайте читать удобнее

Нейросеть Stable Diffusion совместили с редактором Blender: теперь с помощью искусственного интеллекта можно создавать текстуры для моделей. О проекте под названием Dream Textures рассказал разработчик Карсон Катри.

Dream Textures работает на базе функции depth2image, появившейся в Stable Diffusion 2.0. С ее помощью можно сообщить нейросети, где на изображении находится нужный объект и какова его глубина относительно других элементов сцены.

Затем можно попросить ИИ заполнить отмеченное пространство другим изображением, учитывая при этом глубину и размеры исходного объекта. В случае с Dream Textures нейросеть генерирует текстуру, которая сразу натягивается на модель.

У нынешней версии Dream Textures есть очевидный недостаток: текстура генерируется вместе с освещением, отправить ее в продакшн не получится. Впрочем, такое текстурирование может пригодиться для прототипов или для объектов, появляющихся в кадре очень далеко от игрока.

Исходники Dream Textures опубликованы здесь.

Читать далее