Как стать автором
Обновить

Deepfakes и deep media: Новое поле битвы за безопасность

Время на прочтение7 мин
Количество просмотров6.6K
Всего голосов 23: ↑23 и ↓0+23
Комментарии9

Комментарии 9

Новый ящик Пандоры.
С одной стороны — генерация фальшивых видеосвидетельств, с другой — фальшивых отмазок.
«Дорогая, с той блондинкой был разумеется не я — это дипфейк!».
Этим уже пользуются правительства, указывая на факт подделки видео, которое им неудобно. Причем я сейчас совсем не веду разговор о том, подделано ли оно на самом деле. Я обращаю внимание на то, что сама дискуссия идет в русле подделка/не подделка.
Эта проблема решается подписью видео в момент создания
Что помешает подписать фейковое видео в момент создания?
дата подписи
Вы серьезно думаете, что тот кто будет делать фейковое видео не сможет подменить дату?
Пример одной из схем:
при создании видео можно положить его sha1 хэш в блокчейн и по дате создания блока можно всегда проверить когда видео было создано
как вы там дату собрались поменять?
А кто сказал, что те кто будут генерировать фейковое видео будут класть что-то в блокчейн?
Я написал о том, что проблема фейковых видео решается подписью. Например, выходит обращение президента. sha1 обращения отправляется в блокчейн в момент публикации или даже до публикации, чтобы избежать подмену в реальном времени. любое отредактированное видео, не имеющее подписи или же подписанное позднее должно по дефолту восприниматься как ненастоящее. Настоящее же будет нельзя никак изменить (упустив разговоры про возможные уязвимости sha1 и просто заменив это на что-то более стойкое)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий