Pull to refresh

Comments 7

Цитата: «Функция всегда записывается в виде логической суммы, логического «И» для конкретного набора входов и именно одновременная активность этих входов активирует наш нейрон.» Вот меня всегда интересовало — функция выхода нейрона — это случайно не корреляционная функция от входного сигнала и эталона? По моему очень похоже…
Есть множесетво подходов. Про виды функций активаций нейроной когда то были топики на хабре. Еще этот. Я использую строгую логическую функцию активации без весов входов, Y = x1 & x2 & x3 &… & xN.
нет иллюстраций. читается сложно. сложно выделить основную мысль
Такой нейрон и в правду необычным получится. Стоит ли навешивать на него не свойственный нейронам функционал? ИМХО, задачу распознавания и обобщения зависимых во времени цепочек можно решить и с помощью создания особой структуры сети.
Вот пару ссылок, к примеру:

Recurrent Neural Networks for Temporal Sequences Recognition (PDF)
Всезнающий Гугл

Ну а если не ограничиваться только нейронными сетями, для решения таких проблем существует хорошая мат. база — Скрытые марковские модели

Хотя суть проблемы я до конца не понял. :)
промазал с ответом, см. комент ниже
Описаный принцип запоминания последовательностей тот же, хоть в рекурентных сетях это сделано через задержку на такт выхода сети и подача этого выхода на вход сети. Задержка сигнала в каждом нейроне, между слоями или для всей сети не суть важно — эфект тот же.

На счет СММ, не знаю. Разве СММ работают с изменяемыми ожиданиями (вероятностями) во времени? Смысл в том, что бы подстроиться под акцент или же почерк человека в реальном времени. Подстроились, работаем, а потом неожидано начинает говорить или писать другой. Сеть сама должна перестроится, при чем никаких сигналов, что теперь говорит или пишет другой человек. Можно основыватся только на входящем потоке информации и правилах правильного произношения или правописания, которые менять нельзя.
Sign up to leave a comment.

Articles