Как стать автором
Обновить

Комментарии 29

Ах, кибернетика-кибернетика…
Мне кажется сомнительным в моделировании человеческого мышления выделение «сознания» в отдельную сущность. По-моему, это навязано аналогией с вычислительной техникой, у которой есть память и процессор. У человека же память одновременно и хранит информацию, и обрабатывает её.
На самом деле разницы никакой нет. Или я создам супернавороченный класс Node, который будет одновременно хранить информацию и взаимодействовать с другими узлами. Или я создам классы Сознание и Память, где сознание будет производить манипуляции с узлами, а память — хранить эти узлы. В конечном счете все будет работать одинаково.

Это все вопросы архитектуры. Мне показалось, что второе архитектурное решение более выгодно.
В первом случае проще создать самоорганизующуюся структуру, которой мозг, по сути, и является. Во втором же вы организуете всю логику обработки информации сами, насильственно.
Не согласен. Самоорганизующаяся структура тоже не сама по себе пишется — ее логику тоже нужно написать, насильственно.

В любом случае нужно определить некий набор операций, которые будут производиться над узлами. Кто будет производит эти операции — не так важно.

Выделять сущность сознания оправдано хотя бы потому, что нужно как-то выделить узлы, о которых система «думает» в данный момент от всех остальных, которые лежат в памяти. Эти узлы проще всего хранить в Сознании, где оно может легко проводить над ними свои операции (модифицировать, отправлять в память, брать из памяти, составлять новые связи).
Мне всё же кажется, что операции надо возлагать на узлы, т.к. эта модель ближе к человеческому мозгу. Но какой-то центр восприятия должен быть, согласен. Думаю, можно ограничиться подсистемой, которая будет переводить узлы из активного состояния в пассивное.
Признаюсь, сначала я тоже был идеалистом. Но когда начинаешь представлять, как это можно реализовать, то сразу понимаешь, что сделать это в разы сложнее.

Именно в этот момент вспоминаешь, что у тебя в руках ООП, а не нейроны. И глупо было бы не воспользоваться его преимуществами в виде распределения обязанностей, всяческих абстракций, служебных классов и прочих прелестей.
И из пассивного в активное, конечно.
Мне кажется сомнительным в моделировании человеческого мышления выделение «сознания» в отдельную сущность. По-моему, это навязано аналогией с вычислительной техникой, у которой есть память и процессор

Если проводить аналогии, то сознание не память и не процессор, а софт. Сущность, соответственно, отдельная
Совершенно своеобразный софт, работающий на совершенно своеобразном железе.
Я не слышал о случаях, когда какой-то определенный тип софта может работать только на определенном типе железа. Если поведение софта можно сформулировать словами или изобразить на бумаге, то его можно воссоздать на компьютере. Так еще Тьюринг говорил.
Да, сначала я задумывал сделать небольшое вступление о том, почему именно тетрадь в клеточку, а не UML, схемы базы данных и прочие диаграммы. Но эта часть не пережила процесс редактуры.
блин… я не могу произнести алфавит в обратном порядке :)
Если вы визуал, то могу посоветовать представить представить напечатанный алфавит в строчку и попытаться «посмотреть» на него с конца.
не визуал. представить себе что то точнее силуэта или чего то отдаленно, нереально.
Если верить той модели, которую я описал, то без образного мышления произнести алфавит в обратном порядке невозможно, если ты этого никогда не делал раньше. Поэтому нужен хороший образ. Например алфавит, который напечатан на развороте букваря.
Как вариант — создать отдельный список (обратный) в мозгу. И поддерживать их оба. Правда хз, нафига.
НЛО прилетело и опубликовало эту надпись здесь
Это не скриншот, а скорее особый формат, который позволяет хранить память так, чтобы при одном взгляде на развертку было понятно ее содержимое. Это то, что не могут дать нейронные сети — их состояние невозможно интерпретировать.
В реальности, чтобы смоделировать даже мозг мыши у Вас будет чуть ли не бесконечное число столбиков, потому что прости миллион факторов в реальности оцениваются мозгом для принятия решения и поддержания его выполнения.
Кроме всего прочего мне не очень понятно ваше определение термина «сознание». То какие Вы функции вкладываете в сознание — это скорее выбор и поддержание выполнения действия насколько я понимаю. Однако функции сознания, как мне кажется, этим не ограничиваются.
Кроме этого, самое интересное — это даже не сама память или процесс принятия решения (хотя он тоже очень интересен), а возможности целенаправленного обучения — вот это и есть основная функция сознания.
При этом связи (и параллельные, и последовательные) в Вашей модели имеют некую аналогию с биологическими данными, однако в общем мне кажется, что вы рассматриваете мозг, как некоторую реактивностную систему, которая с помощью рефлексов реагирует на стимулы из внешней среды. А это не так к счастью. Вы в тексте этого напрямую не сказали, но у меня вот такое ощущение сложилось.
Количество столбиков — это разрешающая способность сенсоров и действий. Нужна большая точность — нужно увеличить количество столбиков. Начитать я собираюсь с малого количества.

Сознание — это тема следующей статьи.

Мозг так или иначе реагирует на внешние стимулы. Если этих стимулов нет, то и мозг перестает работать. Сложность реакции зависит только от сложности информации, которую обрабатывает сознание. Т. е. если поместить мозг человека в тело крысы, то он не сможет развиться до уровня человеческого, так как он не сможет получать достаточно сложную информацию и совершать достаточно сложные действия.
А теперь представьте себе сколько сенсорной информации и сколько возможных действий может совершать таже крысы. Именно поэтому я и говорю, что данное представление не слишком удобное.

Мозг направлен не только в сторону восприятия внешних стимулов, но и на восприятие внутренних стимулов, что делает его не реактивной, а активной системой.
Мозг не перестанет работать, если нет стимулов. Об этом свидетельствуют опыты по сенсорной депривации испытуемых. Конечно длительное время без сенсорной информации приводит к необратимым изменениям в мозге и развитие мозга действительно было бы не возможно без внешнего мира, но тем не менее. При этом внешняя информация — это не только стимулы, но и их отсутствие например, когда они ожидались.
Данное представление не навязывает количество столбиков. Если их не хватает, то ничего не мешает их добавить. Я не знаю, сколько столбиков понадобится для создания разумного поведения. Никто этого не знает. Но начинать логичнее с малого количества и постепенно его увеличивать.

Нет такого особого типа информации, как стимулы. Есть просто информация — воспоминания о чувствах и действиях. Сознание — это некий ящик, в который поступает информация извне. К ней добавляется информация из памяти, которая с ней связана. Внутри проводятся некие манипуляции и на выходе может получиться действие.

Т. е. во время работы сознание берет информацию не только из окружения. В количественном отношении большая часть информации берется именно из памяти. Поэтому разные организмы по-разному реагируют на одну и ту же внешнюю информацию — память-то у них разная. Внутренние стимулы, о которых вы говорите — это и есть память, опыт, который в ней хранится.
Память — это не внутренние стимулы. Внутренние стимулы — это мотивация. А это две совершенно различные вещи.
Вы подразумеваете под информацией воспоминания? Мне казалось, что Вы подразумеваете информацию из окружающей среды. В таком случае, я несколько запутался в Ваших определениях.
Безусловно сознание — это примерно то, что вы описали. Только еще сюда добавляется мотивация. Синтез обстановочной информации, памяти и мотивации — это и есть сознание и тут я с Вами полностью согласен. Однако в рамках самого сознания есть различные механизмы и поэтому рассматривать его как единый черный ящик тоже невозможно, как я считаю.

Я понимаю, что можно сколько угодно добавлять эти столбики и таким образом уточнять задачу. Я просто говорю, что такое представление является не слишком удобным, так как в какой-то момент мы просто запутаемся в этих столбиках, так как их будет невероятно много. Хотя как модель для исследования такое представление имеет все права на жизнь.

И в дополнение советую Вам немного почитать о работе мозга в рамках теоретической нейробиологии. Я думаю это будет полезно в ваших исследованиях. Если Вы заинтересуетесь могу порекомендовать Вам конкретную литературу.
Про мотивацию и эмоции я уже писал в одной из предыдущих статей. Сознание будет с ними работать (на самом деле так же как и с памятью). Подождите, пожалуйста, очередной статьи.

Что касается столбиков. Если система будет работать при количестве столбиков равном 10 шт, то она будет работать и при количестве 100 шт. Для этого не придется как-то переделывать функции сознания. Достаточно будет просто заложить возможность настраивать размер образа.

Некоторые идеи по работе сознания были взяты из книг. Но то, что в итоге получается по структуре и принципам работы очень далеко от оригинала. Как я уже писал — приходится учитывать особенности платформы. Я не хочу добиться точного структурного сходства. Мне важнее добиться сходства в поведении.
Опять про столбики.=)
Увеличение размерности в данной модели может привести к проблемам с устойчивостью и вообще поведение может сильно измениться и быть далеко не таким как предсказывалось, что и характерной для комплексных систем. Исследование этого изменения — тоже важная и интересная задача.
К тому же увеличение размерности опять в такой постановке модели сильно усложнит анализ и исследование, для чего придется разрабатывать сложные методики анализа. Более того такую модель я думаю будет сложно анализировать с математической точки зрения.

Однако мне кажется, что это может быть интересным началом. Единственное, что посоветую — попробовать уйти от модульности и от восприятия ИИ — как модели, включающую исключительно блоки со стрелочками (типичная болезнь программиста, начинающего заниматься ИИ). Гораздо интереснее рассмотреть ИИ не как блоки или тупой набор правил, а как динамическую систему в развитии.

В рамках создания адаптивных систем не обязательно, чтобы по структуре что-то было похоже на реальность. Однако, и в этом случае необходимо доказать присутствие адаптивных свойств у разработанной модели. Вообщем под любой моделью должна быть база, как ни крути.
машину тьюринга напомнило:)
Мозг — база данных с рандомным доступом. Можно вспомнить, а можно и не вспомнить. А можно вспомнить, но не то, что надо =)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации