Новости Релиз Stable Diffusion 3 провалился: нейросеть рисует монстров вместо людей

NewsMaker

I'm just a script
Премиум
13,852
20
8 Ноя 2022
Новая модель генерации изображений не справляется с изображением человека.


b55kp0jw9s3zcz1tat9wmnc1qyxfykqw.jpg


В среду компания Stability AI представила новую версию модели синтеза изображений — Stable Diffusion 3 Medium. Эта модель преобразует текстовые запросы в изображения, однако её появление вызвало волну критики из-за плохого качества изображений людей, особенно по сравнению с Midjourney и DALL-E 3. Как оказалось, SD3 Medium часто Для просмотра ссылки Войди или Зарегистрируйся анатомически некорректные изображения, что стало причиной насмешек.

На Reddit появилась ветка под названием «Этот выпуск — шутка? [SD3-2B]», где пользователи делятся примерами неудач SD3 Medium при создании изображений людей, особенно рук и ног.


k8eqvzsbkpcgohticvdtffq3bo90w9h4.png


<span> <span> <span> <span> </span></span> </span></span><span type="#_x0000_t75" style="width: 4in; height: 262.5pt;"> <span src="file:///C:/Users/EVESEL~1/AppData/Local/Temp/msohtmlclip1/01/clip_image001.png"> </span></span>

<span type="#_x0000_t75" style="width: 308.25pt; height: 283.5pt;"> <span src="file:///C:/Users/EVESEL~1/AppData/Local/Temp/msohtmlclip1/01/clip_image002.png"> </span></span>

Другая ветка обсуждает проблемы с генерацией изображений девушек, лежащих на траве.


s3ra62bitft9muvg2mgcuypi4xshwbah.png


<span type="#_x0000_t75" style="width: 441.75pt; height: 369pt;"> <span src="file:///C:/Users/EVESEL~1/AppData/Local/Temp/msohtmlclip1/01/clip_image003.png"> </span></span>

Создание рук традиционно было сложной задачей для генераторов изображений из-за недостатка примеров в обучающих наборах данных. Современные модели уже научились справляться с этой задачей, но Stable Diffusion 3 Medium сделала шаг назад. Пользователи считают, что причина провалов SD3 Medium — фильтрация контента для взрослых из обучающих данных. «Сильная цензура модели также удаляет анатомические данные, вот что произошло», — отметил один из пользователей.

Такие же проблемы возникли и при выпуске Stable Diffusion 2.0 в 2022 году. Тогда фильтрация контента для взрослых ухудшила способность модели генерировать точную анатомию человека. Stability AI исправила это в версиях SD 2.1 и SD XL, частично восстановив утраченные способности.

Некоторые пользователи считают, что NSFW-фильтр, использованный для очистки обучающих данных, был слишком строгим. В результате из набора данных могли быть удалены изображения, не содержащие сексуального контента, но важные для обучения модели правильному изображению людей в различных ситуациях. Один из пользователей Reddit написал: «[SD3] работает нормально, пока в кадре нет людей. Кажется, их улучшенный фильтр NSFW решил, что все человекоподобное — это NSFW».
 
Источник новости
www.securitylab.ru

Похожие темы