Pull to refresh

Comments 9

На картинке слои это столбики, верно? И если правильно понимаю, слева вход, каждый столбик это также момент времени, справа самые давние события, переходы между столбиками по связям с разными силами, изначально все связи одинаковые? А в HTM были уровни иерархии (вроде семантической), у вас они получается спрятаны в слое-столбике? То есть, нет явного выделения верх-низ.
В целом хорошо, что оно расходится по времени. Вопрос, какая на практике длина тика ожидается, в герцах скажем? Мне кажется, или оно должно работать относительно быстро? По сравнению с человеческими масштабами, скажем минимум 10гц. И за каждые 100мс каждый нейрон должен сделать «ход», пообщавшись с каждым, т.е. в целом квадрат размера слоя. А если слоев k, то O(n^k). Сколько нейронов в слое потянет компьютер? Нет проблем с производительностью?

Как работает обобщение, может на примере, пусть у вас картинка/экран, надо распознавать круг (окружность). Пиксели, надо понимать, будут здесь входным слоем? Что потом? Как конкретный круг такого размера и в этом месте обобщится на круги других размеров и в других местах? Надо ли изучать все возможные варианты кругов? Если изучу все круги во всех частах экрана кроме одного в левом углу размером 34 пикселя, не хотелось бы попасться и сказать, что «это не круг», когда перед тобой круг.

Круги, вычерченные линией, круги сплошного цвета, с цветом наоборот, с размытой границей и т.д., как все это обобщится в одну категорию?

Квадрат и повороты, тот же вопрос. Прямоугольник и квадрат.

Лица. Как узнать что «это лицо» и как узнавать конкретные лица?

Обобщение во времени, если выучим мелодию, как узнаем ее в более быстром темпе? В другой тональности?

Проверочные вопросы) Еще стоило бы спросить про деятельную моторную часть, но наверное пока хватит.
Мне кажется, вы неправильно поняли. В плане распространения сигналов по сети WTM — перцептрон с импульсными нейронами (если отбросить обратные связи, уменьшение порога активации, и локальность связей).

Если же говорить о времени, то самая близкая к выходу волна это реакция на самое давнее событие.

Изначально связи устанавливаются такими, чтобы WTM содержала в себе базовые реакции.

«Семантической» иерархии нет. Ничто в слоях не спрятано.

Если под «вверх — вниз» подразумевается «входные данные — предсказания» то это достигается за счет прямых и обратных связей.

Конкретные характеристики предположить сложно. Слишком много неизвестных: реализация модели, структура созданной WTM, характер сигналов среды, железо, адаптированность кода под железо и много другое. Можно лишь сказать, что сложность вычислений сопоставима с обыкновенными импульсными сетями.

Так вышло, что модель претерпела изменения. Текущая версия еще не реализована в коде. Для прошлой версии я проводил только синтетические тесты для проверки работоспособности основных механизмов. Как и написано в статье, боевое тестирование еще впереди.

То что вы подразумеваете под обобщением в терминах WTM таковым не является. Ваше обобщение — одинаковая внешняя реакция, для разных входных данных. В WTM это достигается с помощью ассоциаций. Имея ЭП означающий круг (базовый круг), мы можем ассоциировать его с другими «прецедентами круга». Позже, при предъявлении нового круга «он будет сравниваться с запомненными прецедентами». Сила ассоциации [новой круг -> базовый круг] будет складываться из сил всех ассоциаций [прецедент круга -> базовый круг]. Силы этих ассоциаций зависят от «похожести» нового круга на прецеденты.
С остальным «статичным» распознаванием все так же.
Ну на простом примере круга, как определяется «похожесть» кругов? У вас некий базовый круг (в каком виде кстати?). Как оно проассоциируется с другими кругами?

Верх-низ семантической иерархии означает уровни абстракции а также редукции. Например, лицо это два овалообразных нечт(а), одно овалообразное нечто и линеобразное нечто, в определенной конфигурации расстояний. Таким образом, лицо может быть выложено из шурупов и гаек, мы и так его узнаем. Если у вас все основано на прецедентах… не вижу, как это может работать, ну может пример на кругах пояснит.
потому что в природе таких объектов, изначально нацеленных на самоуничтожение или вообще – на выполнение кем-то поставленных целей, нет,

Такие объекты есть: это обычно части, которые жертвуют собой ради целого. Например, пчёлы, которые умирают после того, как ужалят кого-нибудь — они являются частью улья. Или клетки иммунной системы, которые, уничтожая инфекцию, погибают сами.
Описанные вами объекты не совсем подходят. В ходе эволюции у тех же пчел сформировалось, то что некоторые называют альтруистическим поведением. Такое поведение направлено на сохранение вида (или над объекта, в примере с иммунной системы). Однако тогда адаптирующимся агентом необходимо считать вид целиком, а не отдельного его представителя. В случае же самодостаточных объектов (не стаи, не рои, ...) бессмысленно говорить об альтруизме, так как такое поведение не приведет к выживанию его вида (т.е. его самого).

Перенося это на искусственные объекты получаем, что если наш объект часть группы и жертва одного может помочь выполнению целей, то такое поведение приемлемо. Если объект самодостаточен (например какой-нибудь марсоход), то нет.
Описанные вами объекты не совсем подходят.

Почему это не совсем подходят? Это объекты? Объекты. В природе существуют? Существуют. Может быть, они не подходят под точку зрения автора этого высказывания, но это может свидетельствовать лишь об ограниченности такой точки зрения и ложности высказывания о несуществовании описанных объектов.
Однако тогда адаптирующимся агентом необходимо считать вид целиком

Это уже подгонка действительного под желаемое. Мне известно обоснование целесообразности альтруизма — сохранение вида. Но это не мешает тому, что каждая особь такого вида является самостоятельным, адаптирующимся субъектом (слово «объект» здесь не совсем точное, так как под «объектом» обычно имеется в виду нечто пассивное, над чем совершаются действия, а «субъект» — нечто активное, самостоятельно определяющее свое поведение).

В таком контексте и ракета, целью работы которой является самоуничтожение в выбранной точке пространства, является частью группы людей, нации (если ракета применяется в войне между людьми) или вида homo sapiens (если она используется против угрозы человечеству, в научно-исследовательских или колонизационных целях). Жертвуя собой, ракета способствует выживанию нации или человеческого вида.
Хотелось бы заметить что любую условную реакцию стоит рассматривать в контексте предпосылок в которых она возникла и этот контекст указывает на объект моделирования при построении системы. Многие свойства которые мы в речи приписываем объектам — ясляются свойствами конкретных систем включающих эти объекты. Это не пчелы жертвуют собой это улей жертвует пчелами, улей как система выработал из имеющегося у него контекста в своих частях такой вот ответ на стимул.

Так что формально автор прав в природе таких объектов изучения не найти.

Другое дело чем они реально отличаются от тех же культурных объектов. Мне кажется что вся соль в том что у жизни как целой системы есть небольшой набор базовых правил а все остальное гигантский нарост из них со временем порожденный. А вот допустим ракета знает о том что она часть большей системы напрямую через базовые правила. Но надо подумать бы еще =)
1. В процессе функционирования СУ непрерывно увеличивает покрытие множества событий среды целесообразными реакциями.
2. В процессе функционирования СУ непрерывно заменяет существующие реакции на другие, более целесообразные

По первому пункту между активными и реактивными системами нет никаких различий. В обоих случаях увеличение покрытия сводится к обобщению имеющегося опыта на новые ситуации среды. Разница заключается во втором пункте. На него реактивные системы принципиально не способны, иак как не могут оценивать целесообразность действий.

Из такого объяснения совершенно непонятна разница между «активными» и «реактивными» системами. Если вторые вообще никак не могут самостоятельно оценивать целесообразность своих действий — то они не смогут достичь и цели пункта 1), т.к. неизвестно, какими реакциями они покрывают множество событий — целесообразными или нецелесообразными.

С другой стороны, если для «реактивных» систем требуется какая-то внешняя система оценки их поведения, и ее наличие подразумевается — то непонятно, почему с помощью такой внешней системы нельзя достичь цели пункта 2)?

Мне вообще видится невозможным построение сколько-нибудь адекватной системы адаптивного управления, которая не может оценивать результаты своей работы. Даже на уровне ТОУ в адаптивных системах подразумевается оценка результатов управления и подстройка с целью их улучшения. Иначе непонятно, куда надо подстраиваться.
Именно. Вторые вообще не способны самостоятельно оценивать целесообразность своих действий. Если текущая ситуация «достаточно похожа» на ситуацию из их опыта, которая имеет целесообразную реакцию, то можно предположить, что приложение этой реакции к текущей ситуации тоже будет целесообразно (ясно, что не всегда). Заданием подходящего «уровня необходимой похожести» мы управляем целесообразностью обобщения.

Напротив, пункт 2 так и достигается.
обучение СУ целесообразному поведению через внешнюю среду (воспитание). В данном случае среда выступает в роли активного агента, выстраивающего свои воздействия на ОУ так, чтобы у него формировались требуемые модели поведения.
Очевидно, что подход к целесообразности реактивных моделей отличается от активных. В них нет оценки, но есть «рассмотрение событий в свете имеющегося опыта».

Утрированный пример для понимания: буду работать — буду есть. Есть — это хорошо, это целесообразно (целесообразность этого действия была заложена изначально). А значит буду работать.
Sign up to leave a comment.

Articles