Как стать автором
Обновить

Twitter исправит алгоритм автоматической обрезки изображений после жалоб на его расовую предвзятость

Время на прочтение2 мин
Количество просмотров9K
Всего голосов 14: ↑9 и ↓5+4
Комментарии18

Комментарии 18

Тема предвзятости не раскрыта. На всех картинках только белые. Чем они отличаются от чёрных непонятно.
Я ни разу не эксперт, но, для чистоты эксперимента, нег Обаму надо было размещать сверху
Так откройте сам твитт. Две длинных картинки — на одной Обама снизу, на второй — сверху. В обоих случаях Твиттер обрезает картинки так, что на превью виден белый человек. Причем, это спровоцировало целую волну «экспериментов» с разными параметрами, одеждой и контрастностью, и почти всегда показывают белого. Упс!
Вон оно что!
Так и надо было в статью вставить эти длинные картинки и показать результат. В статье вообще ни слова про длинные картинки с двумя людьми и их обрезку до одного человека.

Я вот, честно говоря, тоже из статьи мало, что понял.
Только комментарии добавили ясности.

Так и задумывалось, т.к. именно обсуждаемость показывает «эффективность» автора публикации.
Тут согласен, пока не открыл картинки в самих Твитах, то допереть не мог что тут не так — две одинаковые картинки с обоих сторон, лол. А теперь действительно возник вопрос к странности работы алгоритма. Интересно, по какому принципу вообще обрезка изображения производится?
Ну скорее всего нейросеть определила наиболее значимый участок изображения, приняв за это белого тупо из за того что выборка для обучения на распознавание лиц и людей была в большинстве своем из белых людей, коих, сюрприз — больше
На самом деле не «Упс!», а все как обычно. Если долго ходить по всему этому хештегу и ретвитам можно заметить, что есть твиты, где делаются нормальные эксперименты: с большим количество данных, либо с самим изображением (размытость\четкость, яркость, цветовая гамма, масштаб), по которым можно сделать два вывода:
1) Очень легко манипулировать результатом. Можно достаточно просто делать расистские результаты перебирая фото или фильтруя изображения. (На тестовом аккаунте например)
2) На большой выборке соотношение ближе к 50 на 50

Но, естественно, из таких твитов хорошую новость не сделать, поэтому их нигде не тиражируют.
Там далеко не всегда так, люди проводили эксперименты, и были фотографии, где наоборот показывались чёрные всегда.

Алгоритм не расистский, он просто кривой

Правильный алгоритм должен всегда выбирать случайное лицо, независимо от пола, расы (хотя тут будет правильнее использовать текущие принятые affirmative actions), возраста, контрастности, резкости, размера. Мало-ли что там снимающий хотел, может он расист. Алгоритм не должен поощрять расизм ни в каком виде.

Интересно, такая оценка (-2) из-за недостаточно явного сарказма, или из-за несерьёзного отношения к проблеме? Может и то и другое?

Как я понял, то загружались длинные изображения(высокие). А постольку поскольку твиттер не может их отображать целиком, выбирается наиболее «релевантная» часть изображения для отображения.
ох уж эта расовая релевантность
Думал, в примерах будет что-то подобное

На месте Твиттера можно немного потроллить SJW — дать пользователю выбор при обрезке изображения — на ком акцентировать, а через некоторое время опубликовать статью — кого чаще выбирают пользователи ;)
НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Изменить настройки темы

Истории