Как стать автором
Обновить
5
0

Пользователь

Отправить сообщение
Как правильно разбирать/собирать, думаю, все в курсе, в этом плане я с вами абсолютно согласен. Однако, тут сыграла привычка — увидев ноут с закрытой крышкой, я решил, что он выключен.
Но проверять в любом случае полезно! Больше так делать не буду. Или буду, пока не решил :)
Именно так и находятся интересные баги. Слабоумие и отвага!
Перезаливаем в хорошем качестве
Там ещё нюанс был, что мы тестили на серверной убунте, на которую накатили GNOME, и зашифровали диск.
В статье имеется ввиду suspend. То о чём вы говорите, я обычно называю гибернацией (Hibernation).
Для ext4 можно проверять crtime метку (creation time). Если не ошибаюсь, подделать её можно только патчингом ядра, что как бы тот ещё геморрой на наломанной машинке.
Если руками:
$ sudo debugfs -R 'stat /var/www/index.php' /dev/sda1 2>/dev/null | grep crtime | cut -d ' ' -f4-9
Tue Feb 13 11:34:47 2018

Ну и да, это будет полезно только для поиска новых вредоносных файлов.
Мне интересна технология, может, там есть какие-нибудь новые знания для меня, которые я также в дальнейшем смогу применить. А скрывая алгоритмы механизма защиты безопасность не увеличишь, ну разве что на время.
Именно. Пока, читая комментарии, понял что в факторы входят:
  • IP адреса
  • Обращение к старым (архивным письмам)

Плюс, смею предположить, туда еще входит такой параметр, как «последовательное выкачивание писем». Ну, надеюсь, вы поняли что я имею ввиду.
Интересно, что же ещё кроется внутри этих самых «факторов»?
А что за шкала по оси ординат? Количество обращений к ресурсу? Или это какая-то абстракция?
И почему бывают отрицательные значения?
Спасибо за интересный квест! Было здорово посмотреть на это действо со стороны! Жаль только одно — работа не дает проходить задания по будням, может в следующий раз стоит начать квест в пятницу? Дабы «зацепить» двое выходных.

А так спасибо за возможность поучаствовать ;)
Именно. Но это та ещё задачка создать адекватный классификатор для каждого лица. Боюсь предположить даже сколько изображений понадобится.
Прошу прощения, весь мозг был в работе.
использовался parallel_for

Ох, завидую я вам. У меня была чёткая установка от руководства: хотим, чтобы все работало даже на пылесосе, следовательно, никаких parallel_for…
Ну вообще-то можно построить классификаторы для каждого «валидного» лица. Но это занятие муторное и не стоящее, особенно с Виолой-Джонсом.
И последнее: интересна скорость работы при распознавании с IP камеры, при каком-то адекватном (на сегодняшний день) разрешении.

Простите за уйму вопросов, просто у самого была дипломная работа по распознаванию лиц, правда я использовал за основу фрактальное сжатие.
А так — молодцы. Если эти цифры действительно правда (уж простите, слишком много в нашей области любителей «подкрутить» показатели FAR/FRR), то это отличная разработка!

PS: патентуется, или будет открытая лицензия?
PPS: на чём писался код? Использовался OpenCV или нет?
здесь уже не colorFERET, а кадры с ip-камеры на объекте

т.е. сразу на «боевом» объекте? Не боитесь тогда «заточить» систему только на определенное помещение и освещение?
секунд по 10 на каждый символ

Почему именно 10? И почему на символ?
Спасибо за интересную статью!
Есть только пара моментов, которые хочется уточнить:
1. Насколько мне помниться (поправьте меня, если я ошибаюсь) база colorFERET содержит по несколько фотографий одного лица: с гримасами + с поворотами головы. Какие именно изображения использовались для построения обучающей выборки, а какие для тестирования?
2. Достигался ли FAR более низких значений (ниже 0.01%), и если да, то какой в этом случае был показатель ошибок первого рода (FRR)?
1

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность