Как стать автором
Обновить

Исследователи обнаружили 1000 фраз, которые приводят к запуску Alexa, Siri, Assistant и Cortana

Время на прочтение3 мин
Количество просмотров5.6K
image

Новое исследование голосовых помощников Alexa, Google Home, Siri и Microsoft Cortana продемонстрировало, что триггеров, которые приводят к включению устройств с ними, намного больше, чем предполагалось ранее. Исследователи обнаружили более 1000 таких словосочетаний.

Большое число таких фраз содержится в фильмах, сериалах и телешоу, например, в «Игре престолов», «Карточном домике» и в новостных сводках.


Авторы исследования говорят, что к ложному срабатыванию приводят особенности ПО голосовых помощников, которое ориентировано на распознавание речи владельца даже в условиях помех.


Примеры слов и словосочетаний-триггеров:

Alexa: «недопустимо», «выборы» и «письмо» (unacceptable, election, letter);

Google Home: «Хорошо, круто» и «Хорошо, кто читает» (OK, cool и Okay, who is reading);

Siri: «город» и «эй, Джерри» (a city и hey jerry);

Microsoft Cortana: «Монтана» (Montana).


Такие фразы активируют устройство, затем его алгоритмы анализируют их; после ошибочного заключения устройства отправляют записанные аудио на удаленные серверы, где более надежные механизмы проверки также анализируют их. Иногда же триггеры обманывают только локальный алгоритм, но не облачный.

По словам исследователей, когда устройства запускаются, они записывают часть сказанного и передают эти записи их производителю. Затем аудио может быть расшифровано и проверено сотрудниками в попытке улучшить распознавание слов. Таким образом, фрагменты потенциально приватных разговоров могут попасть в журналы компании.

Авторы делают вывод, что те, кто реально обеспокоен этой проблемой, могут оставлять голосовых помощников отключенными или заблокированными для прослушивания, за исключением случаев, когда это необходимо, либо вообще отказаться от их использования.

На это заявление пока ответили только в Amazon. Там заверили, что их устройства Alexa ориентированы на конфиденциальность и «пробуждаются» только после соответствующей команды. Компания утверждает, что ложные триггеры срабатывают только в редких случаях, а системы распознавания речи улучшаются с каждым днем — по мере того, как клиенты все больше используют устройства. В апреле 2019 года Bloomberg писал, что подрядчики Amazon прослушивают аудиозапросы, адресованные голосовому помощнику, для улучшения его работы. Позднее стало известно, что десятки работников-людей в Индии и Румынии могут просматривать отрывки видео, снятых с помощью ещё одного устройства Amazon — облачной камеры видеонаблюдения камеры Cloud Cam — для обучения алгоритмов искусственного интеллекта.

В прослушивании аудиозаписей обвиняли Google, Apple и Microsoft. Google официально признала эти действия подрядчиков и теперь запрашивает разрешение для сбора данных пользователей.

В Apple прослушивали личные разговоры и команды Siri в рамках глобальной программы оценки работы помощника, из-за чего компания столкнулась с коллективным судебным иском и была вынуждена приостановить программу оценки. Правда, недавно бывший подрядчик заявил, что Siri продолжает записывать запросы.

В Microsoft прослушивали разговоры через Skype и команды Cortana.

Ранее подобное исследование провели для колонок Google Home Mini, Apple Homepod, Harman Kardon Invoke, Amazon Echo Dot. Оно показало, что умные устройства активировались при определенных словах и фразах, которые содержались в выборке из различных сериалов и другого развлекательного контента Netflix.
См. также:

Теги:
Хабы:
+9
Комментарии2

Другие новости

Истории

Работа

Ближайшие события

Weekend Offer в AliExpress
Дата20 – 21 апреля
Время10:00 – 20:00
Место
Онлайн
Конференция «Я.Железо»
Дата18 мая
Время14:00 – 23:59
Место
МоскваОнлайн