Pull to refresh

Comments 32

А где сравнение с согласованным фильтром?
Согласованный фильтр, может быть согласован только с одним сигналом, а тут ведется распознавание нескольких сигналов. С разной частотой, амплитудой, начальной фазой и даже формой.
То есть для распознавания нескольких сигналов нужно несколько согласованных фильтров. Не получается ли, что иметь несколько фильтров по затратам (вычислительным ресурсам) так же (или меньше?), чем нейронные сети?
Да, несколько фильтров. Для согласованного фильтра важна также и длительность импульса, помимо амплитуды.
Для этого теста их бы пришлось использовать очень много, но в стат. радиотехнике доказано, что на фоне белого шума использование согласованного фильтра, при известных параметрах сигнала, является оптимальным. И там многое зависит от выбранного критерия обнаружения. Т.е. уровня z0. Где учитывается вероятность ложной тревоги и правильного обнаружения. Сделать объективное сравнение этих методов крайне сложно. Но если интересно, могу сделать и написать статью на эту тему.
Зачем? Есть же формула для вероятности ошибки при заданном отношении сигнал-шум, просто по ней посчитать, правда, здесь важна длительность сигнала, то есть в итоге его энергия, а важна ли она в нейронной сети — не знаю. Один фильтр на один сигнал, одна формула для вероятности ошибки. Согласованный фильтр — это КИХ-фильтр, на выходе которого требуется взять всего один отсчет из N, где N — порядок фильтра, поэтому число операций можно свести к O(N).
К сожалению, я согласованными фильтрами занимался только в рамках учебы, но точно помню, что для принятия решений, мы после СФ, ставили пороговое устройство. Сам порог рассчитывался в зависимости от выбранного критерия и функции риска. И для перекрытия того же спектра сигналов нужно было бы использовать бесконечное количество таких фильтров. Вы можете скинуть ссылки по этой теме, я почитаю? Насчет КИХ Вы правы, сейчас посмотрел конспекты. Правда мы их только аналоговые проходили. И я после праздников сделаю сравнение, этих методов.
Берите любую книгу по обнаружению и различению сигналов, классиков статистической радиотехники Тихонов, Левин и т. д. В качестве критерия можно выбрать минимум полной вероятности ошибки, когда порог выбирается по пересечению двух плотностей вероятости. Моделируете в дискретном виде, задавая импульсную характристику согласованного фильтра в виде зеркально отраженного идеального сигнала, который собираетесь обнаруживать.
Это понятно, книгу Тихонова я прочитал, по ней собственно и учились. Не понятно другое, как Вы получаете сложность O(N), когда алгоритм быстрой свертки имеет сложность O(3*N*log_2(N)).
Загоняете в регистр N отсчетов и только потом считаете сумму произведений, получая число, которое сравнивается с порогом.
Yes, of course, https://vk.com/id354040982
Нет не получится, нейронная сеть не так уж и много ресурсов хавает, намного меньше, чем свертка сигналов, к тому же возникают вопросы:
1) Сколько фильтров ставить;
2) Какой тип использовать, КИХ или БИХ;

К тому же их довольно сложно рассчитывать. Он же состоит из СФОИ, линий задержки и сумматора.
К сожалению, пост очень похож на статью из вузовского журнала, из которой на скорую руку был сделан текст на Хабр.
Нет, на эту тему я статью в журнале не публиковал. Просто раньше публиковался в различных инженерных сборниках и привычка так писать осталась, но ничего плохого я в этом не вижу. Друг посоветовал некоторые статьи публиковать здесь, вот и написал. Такая стилистика здесь неприемлема?
Не вижу в статьях из журналов ничего плохого, нормальный стиль. Но хотелось бы больше подробностей.

Уточните для гуманитариев, пожалуйста: как это можно применить в технике?

Например диагностика неисправностей по токограммам.

а дайте ссылку, пожалуйста
Было дело когда-то в институте писал работу по схожей теме («Создание ансамблей дискретных ортогональных сигналов с улучшенными корреляционными свойствами» кажется, или как-то так). Тоже была идея использовать нейронные сети, но таки эволюционные алгоритмы тогда одержали верх. А сейчас я что-то не вижу подобной тенденции. Неужели будущее за нейронными сетями?

Подскажите пожалуйста, как из теоремы Колмогорова следует достаточность такой конфигурации многослойного перцептрона ?

Нейронную сеть можно рассматривать как многомерный аппроксиматор функций. Чтобы не пересказывать укажу литературу.(Станислав Осовский. Нейронные сети для обработки информации. М.: «Финансы и статистика». 2004 год. Страницы 90-92.)
Можно. Должно быть, Вы имеете в виду теорему Колмогорова-Арнольда.

Не могли бы вы пояснить, как осуществляется переход от сигнала во временной области к функционалу ?

Ну вот эти формулы, x — сигнал во временной области. А мат. ожидание, СКО, эксцесс и асимметрия — функционалы.
image

Пара вопросов:
1. Почему был выбран именно двухслойный персептрон? На сколько помню сетей много, а данный тип сети «средненький». Возможно другой мог бы дать ещё более точное распознавание
2. Не могли бы вы поделится исходным кодом?

1) Смотря для каких задач, для обработки изображений хорошо подходят сверточные НС, для последовательностей — рекуррентные. Ну а тут вектор фильтровать не надо, и он имеет постоянную длину. Так что персептрон самое то.

Исходным кодом чего, просто я использовал свой фреймворк, для статистики и для создания НС, его код не могу дать. А код какой-то части приложения, для лучшего понимания, пожалуйста.

Нейронные сети типа персептрона способны разделять только линейно разделимые классы.

Нейронные сети типа однослойный персептрон как раз ограничены в типах задач и не способны решать линейно неразделимые задачи. А вот многослойный персептрон как раз-таки был предложен для того, чтобы обойти эту проблему. Просто не хотелось бы сбивать читателя в терминологии.

Вы правы и не правы одновременно, дело в том, что скрытый слой, разделяет пространство признаков линейно, а выходной линейно разделяет пространство, которое формирует скрытый слой, и следовательно получить на выходе плоскость какого-либо другого порядка невозможно. Я писал именно об этом, эта проблема хорошо показана у Саймона Хайкина и Станислава Осовского.

Sign up to leave a comment.

Articles