Pull to refresh

Comments 9

О чём эта статья? Зачем это на хабре? Выглядит как текст скопированный из произвольной взятой газеты....

Изящный способ воровства денег у следующего человека в очереди.

Как минимум подделка голоса в российских реалиях неактуальна — все эти нейронки тренированы только на англоязычной речи. Очень сомневаюсь, что в ближайшие пять лет появится качественный русскоязычный синтезатор, способный подделать любой голос по короткому сэмплу.

Да по моему уже есть системы, способные в частности "говорить" голосом Путина. VeraVoise например. Вообще вся эта индустрия дипфейков вызывает только тревогу, риск нелегитимного применения достаточно велик, при этом порог входа снижается. В соцсетях и мессенджерах очень часто можно встретить переозвученные ролики самого разного качества, часто их используют для некорректной рекламы, например выступления деятелей науки, обычно медицины, с переозвучкой и заменой задника в целях мошенничества. Обычно такая реклама нацелена на пожилых и в целом на доверчивый контингент, поэтому с губами или не заморачиваются или скрывают их простым блюрингом всей картинки. Но например для манипуляций общественным мнением можно заморочится и с Lip sync, оно того стоит :).

Проблема в духе тест Тьюринга для машины, где проверяющий тоже машина.

Вывод: образцы голоса и изображения лица не могут быть средством аутентификации пользователей в банковской сфере и т.д.

Очередная статья от копирайтера на Хабре. Мы на эту тему написали в разделе нашей недавней статьи про синтез речи, искать по "Существует ли массовая опасность со стороны "ИИ".


TLDR — для массового пользователя атака будет скорее всего "тупая" просто по предзаписанным фразам другого человека (пример — разводят бабушку якобы сын просит перевести деньги, попал в беду, запись голоса не сына, а какого-то левого чувака.


Но разовую дорогостоющую диверсию, если есть "много денег", провести вполне реально даже по качественной записи 1 телефонного разговора.

Sign up to leave a comment.