Как стать автором
Обновить

Практика государственного надзора за алгоритмическими системами на примере Канады и ЕС

Время на прочтение4 мин
Количество просмотров2K
image

Прозрачность и подотчетность алгоритмических решений, доступ к значимым составляющим алгоритма и его исправлениям – это инструменты для принятия справедливых решений социальных, технических и регулятивных проблем, возникающих в связи с применением алгоритмических систем. Вопрос осуществления контроля и надзора за такими системами активно прорабатывается в Канаде и Евросоюзе.

Дальше всех в решении данного вопроса продвинулась Канада. Но она сосредоточилась исключительно на государственных системах. Так, правительство страны в апреле 2019 г. утвердило Директиву об автоматизированном принятии решений для обеспечения управления, надзора и аудита за государственными алгоритмическими системами. Соблюдение директивы обязательно с 1 апреля 2020 г. и предполагает периодичность проведения проверки каждые 6 месяцев. Последствия несоблюдения директивы варьируются от профилактических мер вплоть до требований по «заморозке» системы и существенных ограничений работы организации.

Как будет работать регулирование алгоритмических систем?


Согласно директиве, государственные сайты и сервисы, на которых используются алгоритмические системы для принятия решений, обязаны уведомлять об этом пользователей «на видном месте и понятном языке» и регулярно публиковать информацию об эффективности и действенности автоматизированных систем принятия решений. Также владелец алгоритма обязан по требованию предоставлять объяснения принятия алгоритмом именно этого решения и доступные варианты регресса (в случае оспаривания принятого решения).

Для определения уровня воздействия алгоритмических систем правительство Канады разработало и опубликовало инструмент оценки с открытым исходным кодом (заявлена возможность использования другими странами). В частности, для оценки воздействия государственных алгоритмических систем Канады владельцам алгоритмов предлагается ответить на 60 вопросов. По результатам анализа ответов алгоритмической системе присваивается уровень от 1 до 4. Ключевыми для определения уровня являются социально-экономическое воздействие, оценка влияния на государственные процессы (услуги), управления данными, (методологической) прозрачности и сложности системы (оценка влияния показателей прилагается).

Евросоюз еще не выработал практических шагов или обязательных мер, но в целом движется в том же направлении, что и Канада. Однако, в отличии от североамериканцев, ЕС планирует осуществлять контроль за всеми алгоритмами, а не только принадлежащими государству.
Проблема оценки воздействия алгоритмических систем исследуется Исследовательским центром Европейского парламента.

В частности, были подготовлены два аналитических документа: «Понимание алгоритмического принятия решений: возможности и проблемы» (март, 2019 г.) и «Система управления для обеспечения алгоритмической подотчетности и прозрачности» (апрель, 2019 г.).
Документы подготовлены как справочный материал для членов Европейского парламента.

По мнению исследователей, могут быть эффективны следующие меры:

  • Создание регулирующего органа для контроля и надзора за деятельностью алгоритмических систем, в задачи которого войдут: проведение оценки рисков применения алгоритмов по степени воздействия на человека, классификация типов алгоритмов, исследование алгоритмов в случае нарушения прав человека, консультирование регулирующих органов в отношении алгоритмических систем, определение стандартов и лучших практик, аудит алгоритмических систем, помощь пользователям в защите их прав при неподобающем использовании алгоритмов;
  • Сертификация и стандартизация алгоритмических систем, установление требований и обязательств по сертификации. Например, соответствие разрабатываемым стандартам IEEE P7000 «Процесс решения этических проблем во время проектирования систем» и IEEE P7001 «Прозрачность автономных систем». Этот стандарт будет описывать измеримые, проверяемые уровни прозрачности, чтобы можно было объективно оценить автономные системы и определить уровни соответствия;
  • Создание правовых условий для обеспечения прозрачности и подотчетности алгоритмических систем, созданных по заказу государства или реализуемых на государственное финансирование. Обеспечение публичного раскрытия цели, области применения, предполагаемого использования, соответствующих политик и практик, графика и процесса самооценки алгоритмической системы, публикации плана значимого и постоянного доступа внешних исследователей для проверки системы;
  • Защита осведомителей (сотрудников компаний-разработчиков алгоритмов) в случае раскрытия фактов неправомерного использования алгоритмов или скрытых функций;
  • Защита исследователей от судебного преследования (нарушение авторских прав или условий пользования) при их независимом тестировании или глубоком анализе, если это служит общественным интересам;
  • Обеспечение «алгоритмической грамотности» для повышения осведомленности населения о принципах работы алгоритмических систем, оказываемом влиянии и формирования критической оценки;
  • Обеспечение стандартизированного обязательного уведомления пользователей об осуществляемой алгоритмической обработке (информация разъяснительного характера, которая потенциально может повлиять на процесс принятия решения отдельного пользователя или более широкое общественное понимание поведения совокупной системы).
Теги:
Хабы:
Всего голосов 4: ↑3 и ↓1+2
Комментарии1

Публикации