Законодательство в IT
Искусственный интеллект
20 сентября

Полиция Великобритании опасается необъективности ИИ

Королевский объединенный институт оборонных исследований провел опрос, согласно которому выяснилось, что полиция Великобритании опасается необъективности ИИ. Речь идет о технологиях, которые все чаще используются в борьбе с преступностью нейросети, BigData и т.п.

Полицейские опасаются, что масштабное использование ИИ с целью помочь полиции может привести к необъективной оценке рисков, ошибкам в анализе данных и прогнозировании.

В качестве примера можно привести ситуацию, когда представители малообеспеченных групп населения могут быть причислены ИИ к группе высокого риска лишь по той причине, что они чаще других взаимодействуют с социальными службами, соответственно, их данные в большинстве случаев находятся в государственных базах. А ИИ как раз и получает доступ к этим базам, делая затем анализ и прогнозы.

Исследование, о котором идет речь, было проведено по заказу Центра этики данных и инноваций в рамках подготовки Великобритании к широкому внедрению ИИ практически во все сферы жизни. По словам авторов исследования, полиция Великобритании все чаще использует новейшие технологии в своей работе, включая распознавание лиц, анализ видео, извлечение персональных данных из мобильных устройств, поиск людей в социальных сетях и т.п.

Эксперты уверены, что ИИ дает значительные преимущества, но в то же время вызывает серьезные вопросы как с этической, так и с юридической точек зрения. Причина — высокая вероятность ошибок, и, следовательно, дискриминация в отношении отдельных лиц или групп лиц.

Тем не менее, усиление патрулями регионов, которые ИИ считает наиболее опасными, оказалось более эффективными мерами в плане снижения уровня преступности, чем обычное патрулирование всех районов.

Кроме того, ИИ дал возможность в два раза точнее спрогнозировать места вероятного совершения преступлений по сравнению с обычным анализом, который проводится сотрудниками полиции на основании оперативных данных. Тем не менее, в полиции такая форма анализа используется нечасто.

Скорее, полиция предпочитает прибегать к услугам ИИ для того, чтобы анализировать индивидуальные риски. Другими словами, пытается определить вероятность совершения преступлений определенными лицами. И здесь уже возникает известная проблема. Так, прогнозы в отношении групп лиц достаточно точны, но вот индивидуальные прогнозы уступают им в точности.

Проблема в том, что компьютер может спрогнозировать без проблем лишь те действия, которые происходят часто, регулярно и массово. В других же случаях ИИ ведет себя не всегда правильно.

Так, если какое-то лицо было отмечено ИИ как представляющее высокий риск совершения правонарушения, то проверить правильность прогноза, получается не всегда. Часто полиция принимает меры, для того, чтобы потенциальный преступник не смог совершить преступление.

Еще одна проблема в том, что данных собирается великое множество, в особенности о тех из них, чей уровень жизни низок. Дело в том, что в большинстве случаев такие люди знакомы с сотрудниками социальных служб и регулярно подвергаются процедуре идентификации. Нет сомнению, что ИИ будет искать данные о преступлениях там, где они могут быть — т.е., среди обитателей социально неблагополучных регионов.

По словам одного из представителей полиции, использование ИИ в работе можно сравнить с «лоскутным одеялом, которое не скоординировано, используется с разными стандартами, в результате чего результаты тоже разные.

+15
3,7k 4
Поддержать автора
Комментарии 29