Искусственный интеллект
Обработка изображений
Работа с видео
Комментарии 19
0
Появятся камеры, которые отправляют хеш видео в твиттер сразу после его создания и это будет подтверждение реальноси видео.
0
Если на видео запечатлено событие, точное время которого известно и через несколько минут после события в твиттере уже был хеш, это значит, что или видео реальное или было згенерировано за те несколько минут.
Для самых важных моментов можно сделать так, что на всем протяжении видео через каждые n минут отправляется также хеш последних n минут. Тогда генерировать нужно будет паралельно.
0
В теории можно придумать крипто-схему, которая будет гарантировать что хешь был сделан камерой и только камерой. Но для этого потребуется аппаратная поддержка — ключ, зашитый где-то в железе, который должно быть невозможно вытащить наружу. Если это условие выполнить (в принципе подобное любой современный Android смартфон умеет — AndroidKeyStore хранит ключи в отдельной микросхеме, которая не должна отдавать ничего наружу), то тогда обычная схема с ассиметричными ключами позволит создавать такие подписи видео-записи.

Другой вопрос — что можно саму камеру направить например на качественную проекцию с Ultra-HD проектора, так что сама камера не поймет что записывает не реальность а картинку. (Впрочем тут если пойти дальше — можно добавить 3D сканнер в камеру, так что бы она в видео-файл добавляла некоторый отпечаток 3D обьектов).

Ну и конечно же вся эта защита полетит лесом, как только кто-то сможет вытащить ключи с одной из камер. Если аппаратная защита будет сделана качественно — всегда все равно остается возможность физически разломать чип и считать данные диструктивно.
0
Пофантазирую:
1) безрамочный экран, который будет выводить то же самое + дополнительные элементы. Причем достаточно отсутствие одной стороны «рамки» для постановки перед камерой.
2) висеть на шнуре этой камеры. В какой-то момент вместо видеопотока с камеры передавать свой. Не исключена предварительная замена, когда у вас настоящая камера, а фальшивка снимает и передает вашей настоящей камере данные, которые подписываются и уходят в сеть. Сюда же варианты игр с перенаправлением видеопотока и удаленный взлом камеры
3) замена хеш-тега на пути следования, т.к. камеры подключаются не напрямую к облачным серверам, а через существующую инфраструктуру, которая может быть уязвима
4) использование устаревших камер без хеша
5) майнинг такого же хеша для поддельного видео (для некоторых видов хешей уже создавали коллизии)
и т.д. Фантазировать можно бесконечно. Но скоро фантазии могут стать реальностью и это проблема потом доказать, что не украл динозавра.
0
1) и 2) возможны только для алгоритма. который генерирует на лету
3) для доказательства нужно чтобы хеши (з видео и з твиттера) совпадали, то есть если вы заменяете на свой, то у вас он должен быть уже сейчас — тоже генерация на лету. Если у вас сгенерированого видео (и хеша) в момент отправки еще нет, то уязвима инфраструктура вам никак не поможет, а поможет только уязвимость твиттера, позволяющая твитить задним числом.
5)Если в камеры хватит мощности, то она может отправить десять разных видов хешей с этого видео и тогда в сгенерированого должны совпасть все десять.
0

Сложность подделки разных хешей независимая. То есть чтоб подделать так, чтоб и Sha и md5 сошлись это не O(Sha)*O(md5) а O(Sha)+O(md5). А значит просто сложность практически равна сложности самого сильного из этих хешей. Считать разные хеши особого смысла нет.

0
А значит просто сложность практически равна сложности самого сильного из этих хешей.
Ну и отлично, если речь о том, чтобы защититься от гипотетической атаки на один из этих алгоритмов. Мы же не знаем сейчас, какой из них вдруг окажется уязвим.
0
не обязательно видео генерировать на лету. Можно и заранее. А хеш рассчитывать уже на лету. Тем более, что видео можно сгенерировать с запасом и в нескольких вариантах, на месте обрезать и подогнать под контекст и рассчитать хеш. И чем меньше будет проблема с контекстом — тем более реалистичное видео.
Т.е. добавить человека в толпу на переходе — пока нереально. А вот добавить человека на камеру в коридоре — на порядоки проще, т.к. достаточно дождаться пустого коридора и показать необходимый видеофрагмент. Отсюда — добавить присутствие человека на видео с общественных камер — очень сложная проблема, а вот добавить человека в пустом помещении ночью (например, «ограбление») — возможно даже при существующих технологиях, т.к. нет изменяющейся обстановки и свою трансляцию можно записать заранее и начать в любой удобный момент.
0
в твиттер

Когда он успел стать защищённым банком информации?
0
Уже есть камеры с аппаратным ЭЦП RSA 2048 и вшитым производителем в чип приватным ключом. А публичный ключ камеры известен и легко проверить, изменялось ли подписанное изображение или нет.
0
Зачем в Twitter?.. Можно сохранять в блокчейн (BTC, ETH). Есть даже проекты, специально созданные для генерации и сохранения хешей в блокчейне (DeepVault от DeepOnion):
https://deeponion.org
0
Подойдет только для тех видео, подлинность которых будут хотеть удостоверить сами владельцы. Но мне трудно представить, зачем бы те, кто снимал сцены, о которых они не собираются распространяться, отправляли бы куда-нибудь их хэш. Ну и очень часто видео после съемки подвергается монтажу, который может быть весьма безобидным, а временами и необходимым (например, герой интервью раскашлялся). Такие видео уже не будут подлинными, несмотря на то, что их смысл может не отличаться от оригинала. Вот вам и вопрос границы между правдой и ложью.
0
Противодействие фейковому видеоконтенту, не только дипфейкам, это как раз задача нашего проекта prover.io. Мы там сконструировали хитрую синергию блокчейна и видеоаналитики.
Дипфейки мы рассматриваем как отдельный класс фейков, которому отдельно и целенаправленно планируем противостоять. Сейчас как раз работаем над алгоритмами определения реалистичности мимики диктора.
0
Или мне кажется или эта проблема решается цифровой подписью файла видеозаписи в самой камере.
Однако при наличии аппаратно недоверенной видеокамеры в физически недоверенном окружении толку от той подписи ноль. Ибо как минимум время и место становится возможно подделать.
0
Привет. Я создатель github.com/iperov/DeepFaceLab, куда редиректит с закрывшегося сайта deepfakes.club который указан в вашей статье.

На данный момент DeepFaceLab не совершенна в плане наложения нейролица на видео лицо. Например если глаза темные накладываются на светлые глаза, то лицо пересветляется и появляются блики, из-за того что Histogram matching работает на всю картинку.
Алгоритм наложения расположен в файле ConverterMasked.py

Может здесь есть спецы по матану и комп. графике, чтобы пофиксить эту проблему?
Может быть кто-то сможет реализовать адаптивный хистограм матчинг, чтобы матчились проблемные участки отдельно и потом всё сшивалось бы.
Буду рад, если кто поможет. Вы сделаете вклад в опенсорс и в будущее дипфейкинга.
Только полноправные пользователи могут оставлять комментарии. , пожалуйста.