Pull to refresh

Comments 12

Такой странный вопрос: одна из первых формул:
if ( w1*x1+w2*x2+w3*x3+w4*x4 > threshold )
then func=1
else func=0.

Что если изображение {x1,x2,x3,x4} представляет собой очень бледную копию искомого изображения? Тогда из-за того, что значения малы, то выражение не преодолеет порог.

Второй вопрос, как из функции w1*x1+w2*x2+w3*x3+w4*x4 получить функцию вида y=wx+b.

Третий. Что если изображения вообще нет: {0,0,0,0}, тогда y=0+b и оно всегда больше нуля, то есть образ обнаружен. Как же так?

Такой странный вопрос

Смотря какие веса и какой порог. В целом мне кажется разумным, что на почти белой картинке скорее нарисована картина "Война в Крыму, всё в дыму, ничего не видно", чем "Лесенка".


Второй вопрос

Записать "векторно". Между w и x скалярное произведение спряталось (подразумевается в этой записи). А b — это бывший threshold, его просто в левую часть перенесли.


Третий

Смотря чему равно b, оно может быть и отрицательным, тем более что его только что из правой части перенесли.

Ага, то, что перенесли threshold теперь я понял.
А вот как Вы коэффициенты выбрали? Не понятно.
По идее, максимум будет у автокорреляционной функции, но похоже коэффициенты w выбраны каким-то иным (не описанным в статье) способом. Тем более, что якобы «лестница» у вас определяется и в перевернутом виде.

В примере в самом начале не сказано откуда взялись коэффициенты, просто сказали: "давайте для примера рассмотрим такие-то коэффициенты".


А потом объясняется, что коэффициенты можно считать, например, методом градиентного спуска, минимизируя ошибку на выборке.


Тем более, что якобы «лестница» у вас определяется и в перевернутом виде.

Ась?


P.S. Я тут ни при чём и никакие коэффициенты не выбирал, просто мимо проходил.

Под «перевернутой» я имел ввиду лестница «слева направо вверх» и «справа налево вверх» — такие у него примеры. И я честно не понимаю, как можно настроить обнаружение и того и этого одновременно.
Вроде бы лучший обнаружитель — это корреляционная функция с эталонным сигналом который обнаруживаешь на фоне помех. А тут получается сигналы, которые ищешь — могут быть разные и при этом еще зеркальные. Получается нужно бы иметь два эталонных сигнала для двух корреляционных функций.

Нуу эээ даа, первая часть статьи разжёвывает тот факт, что линейным классификатором нельзя выклассифицировать лесенку. Хотя бы потому, что побитное среднее арифметическое двух опознаваемых картинок было бы в этом случае такой же опознаваемой картинкой. А среднее арифметическое двух зеркальных лесенок — это невнятный градиент из чёрного в серое.


Поэтому навешивают активационную функцию, например сигмоиду, после чего начинает иметь какой-то смысл композиция классификаторов (а то композиция линейных функций — это линейная функция, не интересно), после чего городят композицию классификаторов.

Отлично написано!

Поясните, пожалуйста шаг 6 и 7 подробнее. Что значит «насколько меняются текущие потери относительно небольших изменений каждого из весов». Что такое «текущие потери»? Почему появляется градиент L? Ведь был изначально скаляр.
UFO just landed and posted this here

Для этого наглядного учебного примера — достаточно. Для ненаглядных™ задач из реальной жизни, к которым применяются нейросеточки — не достаточно. Хотя иногда тоже достаточно, если нейросеточки не к месту применяются.

Очень нравится ваш выбор статей для перевода. Успехов!

Небольшое замечение. Глубокие перцептроны на практике особо и не встретишь, так как для сколько-нибудь сложной задачи число параметров станет просто астрономическим. И хоть в теории такой перцептрон и будет хорошо решать нашу задачу, вряд ли мы дождёмся окончания его обучения. В глубоком обучении правят бал свёртки и их друзья (например, Res-блоки).

Sign up to leave a comment.

Articles