Вышла нейросеть Stable Diffusion, генерирующая картинки по описанию на обычных видеокартах
У нейросети есть упрощенная браузерная версия.
Кстати, на сайте читать удобнее
Состоялся первый публичный релиз Stable Diffusion, нейронной сети, генерирующей изображения по описанию. В отличие от нейросетей вроде DALL-E 2 или Midjourney, Stable Diffusion можно запустить на собственном компьютере.
К релизу нейронная сеть была оптимизирована: сейчас Stable Diffusion необходимо порядка 6.9 гигабайта видеопамяти. Разработчики планируют и дальше оптимизировать модель, в ближайшие недели ожидается еще несколько релизов.
Сейчас запускать Stable Diffusion рекомендуется на видеокартах Nvidia. В будущем появятся специальные версии Stable Diffusion, оптимизированные под видеокарты AMD и чипы M1/M2 от Apple.
Нейросеть выпущена под лицензией Creative ML OpenRAIL-M, разрешающей как некоммерческое, так и коммерческое использование. Все необходимые исходники и инструкция по запуску опубликованы на GitHub.
Обратите внимание: у Stable Diffusion есть упрощенная версия, работающая в браузере. Изображения здесь генерируются на удаленном сервере, а качество модели хуже, чем в релизной версии.
- Google показала нейросеть, очень хорошо убирающую шум на изображениях
- Создан ИИ для генерации нюдсов: фото
- Графику и проработку новой Saints Row сравнили с GTA V 7-летней давности
- Против съемок «Форсажа 10» хотят протестовать «соседи» Доминика Торетто
- Портрет, сгенерированный ИИ, оживили с помощью другого ИИ: видео
- Автопилот Tesla подорожает до $15000 со «смехотворно дешевых» $12000