Stable Diffusion 3 могли отучить рисовать нюдсы правкой датасета, а не встроенной цензурой
Судя по последним примерам, ничто не помешает дообучить модель.
Кстати, на сайте читать удобнее
Нейросеть Stable Diffusion 3, вышедшая в середине июня, не очень хорошо справляется с человеческой анатомией; предполагалось, что ее дополнительно зацензурировали, чтобы модель не использовалась для генерации нюдсов. По словам бывшего разработчика Stable Diffusion, занимающегося Comfy UI, это не так.
Утверждается, что у Stable Diffusion 3 нет встроенной цензуры. Создатели модели якобы просто убрали из датасета изображения, благодаря которым она могла бы понять, как генерировать откровенные кадры.
Кроме того, инженеры Stability AI якобы дополнительно поправили веса Stable Diffusion 3 — тоже из цензурных соображений. К сожалению, разработчик не пояснил, что имелось в виду.
Вот еще несколько интересных моментов из рассказа бывшего сотрудника Stability AI:
- Компанию сейчас возглавляет специалист-исследователь.
- В Stability AI могут и не выложить VAE, но это не проблема: его легко натренировать самостоятельно.
- При претрейне модели с 2 миллиардами параметров, выпущенной в открытый доступ, были допущены ошибки, изначально ее не планировалось выпускать.
- В итоге нынешнюю версию Stable Diffusion 3 отправили в релиз под давлением руководства.
Сам разработчик намерен сфокусироваться на поддержке ComfyUI вместе с несколькими коллегами. Конечная цель проекта — сделать ComfyUI лучшим интерфейсом для работы с нейросетями-генераторами.
- Илья Суцкевер, бывший главный научный сотрудник OpenAI, открыл свою компанию
- Контроллер на базе ИИ продлил службу батареи до 25% и повысил ее емкость на 10%
- Лучезарный шпат: все сундуки, ходики и баки
- СМИ: Евросоюз может наложить на Apple штраф свыше $1 миллиарда в день
- Возвращение Starliner на Землю еще раз отложили