Comments 32
6/6, хотя я сильно сомневался. Кнопка next не работает (android, chrome).
Намколько сильно должно быть изменено тзображение, чтобы оно сяиталось сгенерированным лицом?
// сгенерированные лица от октября 2017 года уже труднее идентифицировать
будет интересно почитать Хабр в 2020 и 2023 году соответственно
думаю, кстати, что уже в 2025 появятся первые хорошие статьи на русском, написанные при помощи нейросетей (не на Хабре, хотя возможно и на нем)
Уж очень они медленно двигаются.
habr.com/company/yandex/blog/421353
Модели надо на чем-то обучиться, причем чем больше данных, тем лучше. Где то в посте речь шла о 200 000 изображений. Где бы взять столько фотографий лиц с зеленым фоном? Когда нибудь и такой датасет соберут, а пока радуйтесь что не подписаны на инстаграмм нейронной сети
Она и понимает. PGGAN рисует же картинку «с нуля»: и лицо, и фон. Просто лицо сетка рисует реалистично, а фон не очень. И научить рисовать реалистичный фон очень сложно.
Сеть при обучении каждый раз видит на реальных фото одинаковые элементы – нос, рот, глаза. Фон же всегда разный. И дискриминатор просто не может составить обобщенное определение реалистичного фона. А для того, что видит постоянно – может.
Если бы фон был примерно одинаковым на всех фото, то и сетка бы научилась его рисовать. Хотя, возможно, пришлось бы сильно увеличить её ёмкость. Впрочем, даже PGGAN делает фон более-менее похожим на то, что ему чаще всего встречались и проблемы с фоном не сразу бросаются в глаза.
www.youtube.com/watch?v=y8FwqSAyDQ8
как раз про распознавание ИИ.
На чём прокалывается ИИ при генерации человеческих лиц