Посмотрите, как ИИ моментально текстурирует модели
Использовать такое в продакшне вряд ли получится: освещение он тоже рисует.
Кстати, на сайте читать удобнее
Нейросеть Stable Diffusion совместили с редактором Blender: теперь с помощью искусственного интеллекта можно создавать текстуры для моделей. О проекте под названием Dream Textures рассказал разработчик Карсон Катри.
Dream Textures работает на базе функции depth2image, появившейся в Stable Diffusion 2.0. С ее помощью можно сообщить нейросети, где на изображении находится нужный объект и какова его глубина относительно других элементов сцены.
Затем можно попросить ИИ заполнить отмеченное пространство другим изображением, учитывая при этом глубину и размеры исходного объекта. В случае с Dream Textures нейросеть генерирует текстуру, которая сразу натягивается на модель.
У нынешней версии Dream Textures есть очевидный недостаток: текстура генерируется вместе с освещением, отправить ее в продакшн не получится. Впрочем, такое текстурирование может пригодиться для прототипов или для объектов, появляющихся в кадре очень далеко от игрока.
Исходники Dream Textures опубликованы здесь.
- Квест попробовали сделать с помощью ИИ, вот что вышло
- Sony показала электромобиль, запускающий Horizon Forbidden West — он появится в 2026 году
- Выпуск обновления 22H2 для Windows 11 возобновлен после месячной паузы
- Утек геймплей Assassin’s Creed Codename Jade
- Джон Кармак уволился из Meta*, раскритиковав компанию
- Nvidia создала ИИ, играющий в Minecraft по описанию