Comments
От расовых и гендерных предубеждений пока что полностью избавить A.I. не получается

Даже беспристрастная AI подбрасывает чернокожим наркотики и лупит дубинами? :)))


Странно, что среди 28 "преступников" сенаторов темнокожих не так уж и много. Плохая выборка?

Даже беспристрастная AI подбрасывает чернокожим наркотики и лупит дубинами? :)))

С одной стороны смешно, с другой, система, которая плохо различает негров в стране где их аж 13%, вряд ли будет хорошо с ними обращаться. К чему приводят такие ошибки можно понять на примере наших сограждан автолюбителей, которым не повезло иметь машину-двойник в другом регионе. Вроде бы ты всегда можешь доказать, что это не ты, но количество твоего личного времени и нервов, требующееся на это, непропорционально больше по сравнению с тем, насколько быстро и просто выписывается штраф автоматизированной системой.
PS Никого не защищаю, я одинаково негативно отношусь как к погромам и мародерству, так и к полицейскому произволу, и считаю, что все кто в этом участвовал должны быть серьезно наказаны.
Но ведь конечное решение принимает все равно человек, аресты проводят пока не роботы. И если полицейский увидит, что не похож, наверное задержания не будет? Максимум документы проверят.

Вопрос, с чем будет сравнивать полицейский? Ведь скорее всего у него будет ордер или протокол на конкретно этого распознанного человека, и сверять с видео если и будут, то уже в участке как минимум.
Я вас может быть удивлю, но и сейчас за каждым штрафом с камеры стоит отдельный ответственный человек, но очевидные для человека ошибки в протоколах все равно остаются. Люди создания ленивые, вспомните как легко расслабляется человек, например, в машине с "автопилотом" полностью доверяя ему управление, хотя от его решений будет зависеть его собственная жизнь, а уж когда дело касается незнакомого постороннего человека… пфф

С тем же, с чем сравнивает система распознавания: с фотороботом или фотографией. В отличии от штрафа за ПДД с подозреваемым надо поговорить на близком расстоянии и затем уже доставить для допроса. Это несколько разные вещи.

Другое дело, если его «распознали» по ошибке, а он оказался все равно виновен в другом преступлении: имел наркотики/оружие, разыскивался за другое преступление, нарушил правила УДО и т.д. Ну это уже сам виноват, побольше бы таких false-positive.

— А у нас в Б-р-р-р-ливии как только чиновник к власти пришёл — на следующий же день его вешаем.
— Но… зачем?!
— А чего время зря терять?

Теперь SpaceX нужно отказаться запускать Dragon без афроастронавтов.
> От расовых и гендерных предубеждений пока что полностью избавить A.I. не получается.

Может у «AI» этих предубеждений как раз нет и он показывает все как есть, но людям, у которых эти предубеждения есть, не нравятся результаты?

> Например, в 2018-м Rekognition приняла за преступников 28 конгрессменов США.

Интересно, что недовольны распознаванием чернокожих, а false-positive конгрессмены в основном белые.
Only those users with full accounts are able to leave comments. Log in, please.