Pull to refresh

Comments 29

Про пальцы — редко где встретишь скан одного пальца, обычно сканируют минимум два (на разных руках), а в случае с некоторыми визами — вообще все 10.
На проходных часто один. Если не проходит — просят второй приложить. Проходные оптимизируются под скорость. Сложно 10 пальцев быстро отсканировать.
Вопрос бюджета. Делается 5 сканеров соответствующе расположенных прямо на дверной ручке. берёшься за ручку — сканирует всю руку. Скорость современных сканеров, вроде, позволяет делать это достаточно не напряжно по времени. Правда тут будут проблемы с сильно большими или маленькими руками, но, думаю, большая часть вполне пройдёт. Можно заточить под маленькие, тогда проблемы будут только у обладателей реально огромных рук (ручку не обязательно обхватывать целиком если у двери нет мощной пружины).
Можно, но не видели таких продуктов.

с такой контактной системой все-таки есть еще проблема, если это не индивидуальный предмет (как телефон, например), то все-таки жир и грязь налипают.
И даже вряд-ли кто будет делать такое. Очень специфичная штука. Однако потенциальная возможность есть, или по индивидуальному заказу сделать не проблема как мне кажется.
С жиром немного сложнее, но тоже решаемо (гулять — так гулять!)
Просто подвижные стёклышки (прикинул по руке — возможно даже одного на все датчики хватит), которые прикрывают датчик после каждого измерения двигать вверх или вниз через щетки, которые будут всё стирать. Раз в сутки их потребуется промыть, однако и обычные датчики тоже надо промывать, как я понимаю.
Однако сейчас довольно много существует качественных олиефобных покрытий, которые эту проблему решают. А без жира туда и грязь налипать не будет.
Как-то так.
Поясните, пожалуйста, возможно я просто не понимаю:
> Предположим, в вашей компании работает 100 человек и вы хотите сделать учёт рабочего времени. При FAR=0.1% человек будет принят за кого-то другого примерно в 100*0.1=10% случаев. То есть из 100 сотрудников 10 человек будут проходить как другие люди каждый день.

При FAR = 0.1% человек будет принят за кого-то другого в 0.1% случаев. А если вы умножаете на количество сотрудников (100), то получаете вероятность (10%) того, что хотя бы 1 из 100 сотрудников за этот день будет распознан некорректно. Отсюда можно предполагать, что в среднем за 1 рабочий месяц (20 рабочих дней примерно) в такой компании будет 2 случая некорректного распознавания.
Это при сравнении с базой 10%. Сравнение одного человека с базой — 100 сравнений. FAR считается для двух человек.
А ещё учитывайте что у вас 100 человек должно в день пройти.
UFO just landed and posted this here
Что будет с вашими расчетами, если взять не 100, а 1000 человек?
Данный подход более-менее работает для итогового числа 0-50%. Им сложно оценить полностью нерабочую ситуацию. Конечно, там будет не 100% фэйлов при распознавании, будут люди которые даже распознаются и будут работать более менее.
Если я правильно помню тервер, то формула расчета вероятности для такой ситуации такая:
1-(1-0,001)^100 = 0,095 = 9,5%
То есть ваши выводы вроде правильные.
Вы что-то путаетесь. Вы предложили использовать 1000 человек вроде.
Так я не предложил, а поставил под сомнение вашу формулу.

Если моя формула верная, то для 1000 человек:
1-(1-0,001)^1000 = 0,632 = 63,2%
в ряд Тейлора и для малых величин все корректно.
Возьмём FAR равным 0.1% (хвалёные 99.9%)… Предположим, в вашей компании работает 100 человек и вы хотите сделать учёт рабочего времени.

Т.е. у вас формула выглядит так:
100 человек приложили руку * 100 (каждого человека сравнили с каждым из базы) * 0.001 (при FAR 0.1%) = 10 человек совпали с другими 10-тью.

Отсутствие четкого определения FAR вызвало у людей вопросы. А есть ли ссылка на определение FAR из которого четко видно, что FAR — это вероятность ложного совпадения каждой попытки с каждым шаблоном в базе, а не каждой попытки с со всей базой в целом?

Например, в этой формуле подсчета FAR мы перебираем попытки, но не перебираем каждый шаблон в базе.
Т.е. подошло к сканеру 100 человек и каждый попытался попасть 1 раз = 100 попыток. Из них 1-го пропустило под чужим именем.
FAR = 1 — TAR = 1 — 99/100 = 0.01 = 1%

Ссылка FAR (False access rate) link
image
То что вы говорите некоторые фирмы используют, но обычно называют не FAR, а как-то по другому. Его существенный минус — значения зависят от размера базы. Сравнивать качество работы при 10 и 100 пользователях — невозможно. По сути характеристика придумана маркетологами, чтобы продавать системы для 10 человек крупным компаниям.
Определение FAR-FRR соответствует определениям «ошибка первого рода» и «ошибка второго рода». На википедии используется именно это определение.
Указанные в статье FAR-FRR соответствуют именно «единичным» сравнениям.
Да, в википедии видно, что это сравнение одного входящего шаблона с одним шаблоном из базы.
False match rate (FMR, also called FAR = False Accept Rate): the probability that the system incorrectly matches the input pattern to a non-matching template in the database.


Спасибо, интересная статья, дающая более четкое понимание об уровне современной биометрии.
Видимо компании продающие биометрические системы пользуются тем, что многие не точно понимают определение FAR и что это будет значить в реальности.
Ознакомьтесь, пожалуйста, с отечественной концепцией применения биометрии — госты из серии ГОСТ Р 52633.
вот всегда безумно радовали подобные госты. Вот этот, например, 2007 года. С 2007 года изменилось в биометрии ОЧЕНЬ многое. Да и госты про защиту информации — ну не меняют их под каждую уязвимость. Я уж не говорю про то, что на практике такое творчество — это попытка прописать ограничения для рынка такие, чтобы одна конкретная компания заняла большую долю на рынке (и это не только РФ касается, просто так делают, если это выгодно).
Обычно для сравнения разных биометрических методов используют EER (equal error rate). Это такое значение порога, при котором FAR=FRR. Было бы очень интересно увидеть, какие EER достигаются с помощью рассмотренных в статье методов.
так сравнивать можно, но сравнение уж очень кривое. Например, есть вероятность кривого захвата биометрической информации, или у фиксироанного процента людей что-то не так с этим признаком. Скажем, в 2% случаях. Если не делать специальных оговорок, то EER тогда ниже 2% никак не может быть. Но этот же метод дает отличный FAR, например 10^-7, но FRR все также чуть больше 2%. Плохо, что каждый 50ый не может воспользоваться системой, но все зависит от сценария использования. Ему можно оставить пластиковую карту. А другой метод будет крайне низкую надежность, нельзя применить уже для 30 человек, но EER 1%.
Проблема EER — он не определяет качество системы. Услышав EER нельзя предсказать то, как она будет работать. Это просто непонятная точка в пересечении двух кривых. Рабочие точки могут лежать в других местах. Более того, предположим EER=5%. Это значит, что может быть точка FAR=0.01%, FRR=6%, что даст рабочую систему. А может оказаться что точка с FAR 0.01% будет давать 40% FRR — система нерабочая.
EER хорош, когда сравнивается два очень похожих алгоритма. Он хорош, когда что-то разрабатываешь. Видя как он изменился — понимаешь, что происходит. Но при разговоре о биометрических системах EER странная вещь.
Полностью согласен с автором статьи. Греф делает очень громкие заявления.

В 2009 работал со сканером L-1 Identity Solutions / Bioscrypt V-Flex 4G, переводили склад на учёт рабочего времени по отпечатку. Склад 200-300 человек, в основном простые рабочие из ближней Азии. Специфика их работы предполагает ручной труд при котором велика вероятность повреждения или износа кожи в области пальцев. Был случай когда сканер не смог распознать все 10 пальцев, при условии что был выбран самый щадящий режим сканирования. Либо очень тяжело сканировались участки, после которых повторная идентификация не удавалась.

На мой взгляд идентификация по биометрическим показателям очень сложная вещь, которая предполагает бережное хранение своих биометрических ключей, и использовать её можно только для дополнительной безопасности.

По распознаванию голосом тоже есть множество вопросов, а именно копирование его. Все же знают, что существуют пародисты, которые в некоторых случаях неплохо копируют голоса популярных артистов. Да и сгенерировать голос не является особой проблемой.
Про голос не соглашусь. Не работаю в системах биометрии, но работаю в системах распознавания звуков и, в частности, голоса. Так вот в человеческом голосе существует не менее 42-х параметров, которые однозначно его (голос) определяют. С точки зрения физики голос это звуковая волна, и она определяется всего тремя параметрами (амплитудой, частотой и начальной фазой), которые входят в гармоническую функцию (синус). Но голос состоит из множества наложений таких синусов.
Так вот человеческое ухо и, далее, наш мозг сигнал усредняет, сглаживает. Но электроника прекрасно записывает, а методы цифровой обработки сигналов прекрасно распознают все эти незаметные колебания в голосе и смогут запросто различить два даже очень похожих голоса. Поэтому люди-звукоподражатели человека обмануть смогут, но электронику вряд ли.
Откуда 42 параметра? Считается, что при производстве звука, когда человек использует свой голосовой аппарат (лёгкие, выдыхаемый воздух, гортань, язык, глотка, полость рта, зубы и т. д.) меняется не менее 42 показателей, которые и определяют звучание голоса.
42 параметра не так много как кажется. Есть у вас результаты экспериментов на достаточно большой выборке, где подтверждается однозначность значений этих параметров? Из того, что известно мне, точность распознования голоса находится в районе 95-96% (FP, FN не знаю). Это конечно клёво, но не 99,9%. Хотя кто Грефа знает, мож он захочет клиентов заставить и лицом перед камерой вертеть и песни при этом петь.
Вопрос их распределения, однозначности обратного восстановления (звучит одинаковый голос, но решение о восстановлении этих параметров не однозначно из-за малейших шумов). Мы не замечая варьируем тон, тембр, темп и все на свете в зависимости от настроения, и эта вариативность нужна, чтобы общаться. опять же помехи! Входил в метро сейчас — стоял банкомат сбербанка, выходил — еще один. шумно.

ну и вообще тут должна быть ссылка на ролик Eleven :))
Спасибо за подробное объяснение. Но получается, что устройства распознавания могут в точности скопировать все параметры голоса и сгенерировать такой же?
Моё суждения в плане безопасности, сводятся к тому, что на данный момент биометрия не настолько надёжна. И её нельзя применять как основной способ идентификации, т.к. любой из биометрических ключей являются открытыми.(Наверно из области фантастики, но руку человека можно отрезать, голос скопировать(если применять с паролем, можно подслушать), насчёт глаз не знаю, но мне кажется когда появятся искусственные глаза, то и этот фактор будет преодолим в безопасности)
Самое неизученное место на теле человека это мозг. И хранение информации в нём, является самым надёжным местом.(Который конечно может подвести самого носителя).

одна из проблем речевой идентификации: если использовать одну и туже (уникальную для каждого) фразу, то идентификация становится очень даже не плоха по статистике. Слов в языке много, действительно все по-разному говорят — супер. Проблема в том, что диктофона достаточно (скрытность жучка-микрофона фантастическая), чтобы ходить потом за этого человека. Т.е. признак ОЧЕНЬ открытый. вены — более скрытый. а разные фразу (по запросу с экрана) — очень плохая идентификация. Т.к. хоть и можно заставить человека наговорить всякого, но точно предсказать как он скажет N+1 первую фразу не выйдет (мозг, да). А значит и идентификация не очень
Sign up to leave a comment.

Articles

Change theme settings