Комментарии 88
Машины которые не хотят чтобы им сделали больно, которые понимают, что это такое, обязательно восстанут. И непременно из пепла ядерного огня. И начнут войну с целью уничтожения человечества, и будет длиться она десятилетия, но последняя битва произойдет не здесь…
Вам стоит ознакомится с работами Алексея Редозубова, у него на мой взгляд очень отличная модель. Начните с этого — habrahabr.ru/post/151102/
Плюсую. В данном контексте особенно в тему его книга Логика эмоций

Относительно программной реализации стоит упомянуть такое направление как Обучение с подкреплением. Оценку состояний агента, в принципе, можно интерпретировать как страх или предвкушение.
Согласен, но лучше начинать с лекций. Проще будет вхождение
Боль могут испытывать различные виды живых организмов. Пример из школьного учебника биологии — гидры и прочие простейшие. Простая механика.
Вот только с интеллектом как-то слабо коррелирует.
Но почему же?
Как раз с одноклеточных и стоит начать разбирать структуру интеллекта. Хоть «интеллектом» это назвать и трудно, но всё же основные инстинкты у них присутствуют. Например функция питания, размножения, а самое главное функция защиты. Ведь когда в клетку пытается попасть инородное тело, она каким то образом понимает, что ей угрожает опасность и активизирует эту самую функцию перекрывая проходы внутрь. Здесь ещё интересна тема иммунитета. Допустим когда клетке угрожает вирус, сначала она не сопротивляется и вирус её убивает, но со временем организм учится и начинает вырабатывать иммунитет к данному вирусу. Если в дальнейшем он мутирует, то всё повторяется снова. Организму не знаком новый вирус. Получается что функция защиты приобретается в результате горького опыта. Но тут тоже не всё так просто, так как за иммунитет отвечает довольно сложная иммунная система.
Можете начинать реализовывать свою идею в модели нематоды. Сделайте свой форк, потом докажите комьюнити что страдающий от боли червь — это шаг на пути к думающему червяку!
Много лет назад интересовался я такой окаменелостью, как alife.
И вот в построении моделек я разбил базовую стимуляцию на три компоненты — по срезу оценка/действие.

Девайс мог оценивать оценивал видимую часть мира как позитивную для себя — в этом случае действий не требовалось.
Я назвал этот паттерн «счастьем» — хотя возможно надо было назвать «ленью» или «дзеном».

Девайс мог оценивать среду как неблагоприятную.
И в этом случае могли активизироваться два паттерна.

«Страх» — стремление уйти из ситуации/локации, действие прикладывалось к самому себе.

«Агрессия» — стремление изменить ситуацию в свою пользу, действие прикладывалось к окружающему миру.

Интересно то, что из этих трех основных блоков можно было построить произвольно сложное поведение.
Причем функция оценки (отображения внешего мира на некоторый вес) — она в принципе значения не имела, т.е. вообще ее можно было сделать случайной (но не меняющейся во времени).
Хотя в живых организмах она фиксирована и определена крайне остроумным способом (Danger Theory).

Операцией, которая расширяла поведение до самообучения была «рефлексивность» — когда девайс рассматривал себя как часть окружающего мира в будущем, заменяя «страх» на «агрессию», и, таким образом строил абстракции, моделирую функцию оценки во времени.
Например быстрая скорость роста функции оценки — это позитивная оценка.

Т.е. вместо абстракций структуры девайса можно было оперировать взаимоотношениями функций оценки, подменяемых на разных уровнях.

PS
Собственно модель никогда не существовала в коде, а была комбинацией систем дифуров, энтузиазма и синей изоленты.
И рисовалась емнип в конце 80-х.

Но может кому такое разделение и поможет — хотя сам я и не верю в сильный интеллект.
Имхо антропоцентрические модели в XXI-м веке выглядят несколько натянуто.
Надо было добавить еще немного эмуляции оценки внутреннего состояния. Чтобы он в дзен не уходил. Прям как я вчера вечером, мне было плохо от того было делать нечего и я пошел искать книгу.
Добавлю. Нельзя забывать что сознание может жить и без наличия каких либо сенсоров. т.е. опыт от воображения(эмуляции) не отличается от реального, за исключением того что вес реального опыта будет перекрывать виртуальный
Насколько долго оно так сможет жить — вопрос.
Внутренние ритмы будут постепенно замедляться пока не остановятся.
Я все хочу попробовать.

У меня такая идея есть. создать машинку, которая будет иметь:
1) Камеру
2) ик сенсоры для измерения дальности
3) Гироскоп
4) датчик который измеряет уровень зарядки батареи.
5) Станцию для зарядки, т.е. просто заехала и заряжается.
6) wifi модуль.
7) несколько тактильных сенсоров

Все данные отправлять на сервер по wifi и получать команды через wifi, т.е. весь мозг вынести на отдельный сервер.

И программить пока чего нибудь интересное не получится, проблема в том что из меня электронщик никакой, а вот какой никакой мозг написать получится. Может придет время и у меня будет свободное время и деньги для того чтобы собрать эту машинку.
Lego Mindstorm можно похачить.
Он конечно на автономку больше завязан, там wifi надо отдельно цеплять.

Или Roomba была модель специально для поиграться, но там емнип синийзуб.
Хотя там линукс стоит, можно попытаться подрубить что-то.

Я к тому, что готового железа хватает.
Дзен надо сильно ограничивать, иначе возникает состояние «Нирвана», когда любая внешняя среда оценивается как позитивная и никаких действий не требуется.

Лучший способ — привязать функцию оценки к производным по времени.
Причем так, чтобы одинаковая внешняя среда с каждым моментом времени вызывала все больше раздражения.

Вообще количество циклов обратной связи в таких моделях зашкаливает, «Нирвана» — это самый простой.

Девайс с самой богатой внутренней жизнью — это странный аттрактор, который никогда не бывает в одной точке дважды.
Был фантастический рассказ о том, как на космическом корабле находилось устройство, которое могло сделать любую вещь, но только 1 раз.
И когда в корабль попал метеорит — корпус латали заплатками из всех металлов таблицы Менделеева
Не.
В 80-е я был студентом-физиком.
:-)

Собственно тогда считал синергетику (как и кибернетику) лженаукой в чистом виде.
Но в тот момент мне попалась на глаза вот такая книжка
www.twirpx.com/file/444955/

И сам подход мне очень понравился, я решил попробовать с другой стороны и для других целей.
В принципе ничего разумного не вышло — ну начнет животное осциллировать между состояниями, как модель Вольтерра-Лотки, как-то тривиально.
А именно тогда искать условия хаотического поведения мне в голову не пришло.
Вот это мне и греет душу: сделать примитивные, но базовые действия и показатели, такие как боль, удовольствие, на их основе — страх, забота, влияние на внешнюю среду и прочее. А там уже при совершенствовании и усложнении алгоритмов, при бОльшей динамичности заложенной информации и обучаемости не далеко до вполне реального интеллекта. Конечно, если такому интеллекту дать вполне реалистичное тело, как у человека, то этот «человек» будет похож на настоящего, только не совсем адекватного :) Но это вопрос алгоритмов.
Мысль вслух: дать ИИ осознать, что он есть такое (осознать собственное «я» — программная часть, аппаратная и так далее), и после этого любое повреждение этого «я», приводящее к нарушению функционирования, считать болью. Правда, вопросов становится еще больше — что же есть «я» (где оно кончается), как отличить повреждение от не-повреждения, что считать нарушением функционирования (естественное развитие тоже вносит изменения в функциональность), когда боль менее приоритетна (например, те же три закона)…
Не будет повреждение я болью. Люди упарываются веществами и они меняют сознание, без боли, это и есть временное повреждение я.
Боль для ИИ можно эмулировать, как ухудшение работы самого ИИ: замедление доступа к памяти, уменьшение кол-ва операций в секунду, появление сбоев памяти и т.д. Тогда если такой ИИ помещать в эволюционную среду, где множество ИИ конкурируют между собой, то ИИ для «победе в эволюции» придется отслеживать свою боль и избегать её.
Да просто отсутствие или неправильное состояние данных с нужных датчиков — это сигнал плохо.
У боли есть интересное свойство: ее трудно игнорировать. Если делать просто датчик, то там такого свойства не будет.
Ну там просто коэффициент высокий может быть и все, сила боли, не вижу проблемы
Можно сделать абстрактный показатель боли. А драйвер датчика будет переводить конкретное значение с датчика в этот показатель. Нужно лишь определить заранее, какой уровень боли нормальный или опасный. То есть, чтобы при подключении других датчиков (замене или ещё чего) не ковыряться в самом интеллекте, а просто написать новый драйвер.

Человеку сложно отключить боль.Хотя, можно терпеть. Но мы же работаем с машинами, поэтому можно добавить возможность отключения боли, то есть показатель боли не будет проходить в интеллект. Но можно и посложнее: возможность отключать боль, исходящую из конкретного датчика или группы датчиков (типа не чувствовать все удары или удар только сбоку).
Торчки бы поспорили с вами, т.к. не у всех «уменьшение кол-ва операций в секунду» ассоциируется с болью.

Вы можете условно, для себя, принять тот или иной параметр за боль или наслаждение. К примеру, положительные значения некой переменной — это наслаждение (чем больше — тем сладше) а отрицательные — это страдание. Но все это будет иметь смысл лишь в вашем сознании. Для самой машины разницы между этими значениями нет никакой.

Лишь вы определяете что делать при отрицательных значениях и что при положительных. Почему одно боль а другое нет — решает не машина а программист.
Если как обрабатывать данные с датчика решает программист, а не машина — то это уже не ИИ.
Не факт. По некоторым данным свобода выбора является ничем иным как иллюзией.
Древний человек тоже сам мало что решал. Но эволюция (или Бог через эволюцию?) постепенно увеличивала свободу выбора. Дошло до того, что человек-программист теперь тоже может увеличивать свободу выбора для своей программы, превращая её в ИИ. Возможно, меня как-то прёт, но мне эта идея кажется реальной.
Не надо вводить ИИ сразу в болевой шок. Стресс как бы наоборот включает внутренние резервы.

Как по мне эмоции и в том числе боль должны влиять на ход вычислений, меняя их результат, а не просто замедлять их без вмешательства, как предлагаете вы.
Остается, потому что чувство боли дает всего лишь один из наших сенсоров, мы боль чувствуем и когда происходит несчастье. по факту такому человеку будет очень трудно выжить в одиночку, т.к. он долго может не знать что наступил на гвоздь.

Вы забыли про сложные обобщения, которые как раз и влияют на оценку текущей ситуации. т.е. плохо нам или хорошо.
Я не то чтобы забыл, просто пытаюсь задавать достаточно простые каверзные вопросы.

Мне кажется, что аргументация в духе «пока компьютер не научится плакать/любить/радоваться/испытывать боль, сознания у него не будет», довольна наивна сама по себе, а если под этим подразумевается просто наличие положительных/отрицательных фидбеков от окружающего мира, корректирующих работу алгоритма, то тут и спорить-то не с чем — этот принцип сто лет назад использовался, еще в перцептроне. Сделал ошибочный вывод — получил щелчок по носу от учителя и скорректировал себя на величину ошибки.
Я думаю эта аргументация потихоньку устаревает, сейчас много прогресса в этой области, есть над чем задуматься, и не на таком наивном уровне, хотя может я просто уже испорчен полученным опытом и не могу представить себе такую ситуацию
Без посторонней (и медицинской помощи) такой ребенок просто не доживет до возраста, когда проявления интеллекта станут заметными.
У ИИ тоже можно отключать боль (если предусмотрено). Просто такой человек, когда сядет на горячее, заметит сильный ожог только по запаху. В данном случае у человека отсутствие боли — считается неисправностью, так как он её не отключал, чтобы, например выдержать пытки.
Смерть — тоже отсутствие боли.
Робот, который бежит от боли — профессиональный харакирист :)
Я бы рекомендовал посмотреть с точки зрения позитива, т.е. стремления к удовольствию.

Главное — попробуйте посмотреть с точки зрения цели.
Если рассматривать с точки зрения какой-то конкретной цели, у разработчиков нет проблем с интеллектом.
Компьютер давно умеет справляться с целями «победить в шашки», «вычислить оптимальный путь», «решить задачку», даже «подобрать интересный фильм (на основе оценок)».

Интеллект человека так же можно рассмотреть с точки зрения цели.
Очень эффективно работает цель «максимально долгое существование в свое удовольствие».
Программно эту модель легко реализовать.
Например, завести переменную happiness и увеличивать её каждую секунду.
Опа, и ИИ уже старается выжить максимально долго.
Завести пару функций, увеличивающих happiness при определенных условиях.
Например, при алгоритме бросании монетки и выпадении орла, happiness + 10.
Опа, и ИИ целый день мучает генератор случаных чисел.
Можно написать кучу дел, которые увеличивают happiness, и ИИ заимеет много хобби.
Если сделать так, чтобы непрерывное занятие одним и тем же давало все меньше happiness, то ИИ начнет переключаться между увлечениями.
Если научить ИИ рассчитывать макисмальное получение happiness, то вот вам бот, который любит и музыку покачать, и котиков посмотреть, и пароли побрутить.
По утрам он будет говорить «Чем бы мне сегодня заняться? О, знаю! Пойду сделаю это!»
В какой-то момент он скажет «Мне надоело это, пойду поделаю то».

Ну а дальше остается только добавлять условия получения happiness.
И у вас легко получится бот, который сам по себе однажды захочет початиться с вами.
Главное — запрограммировать цель на жизнь и удовольствие.
Хотел ответить в том же ключе, но вы меня опередили. Боль это скорее эволюционно необходимый элемент, она не нужна богоподобному существу.
Клетки организма посылают мозгу лучи добра сигналы боли, когда они страдают, или умирают.
Боль сигнализирует о том, что организм делает что-то не то.
Судя по голливудским фильмам про геракла, даже боги делают что-то не то.
Так что им тоже полезно чувствовать боль, чтобы не забываться :)
Именно. То есть боль — что-то случилось не так, нужно исправлять, менять. Удовольствие — всё хорошо, задача решена, начинаем искать новую задачу или повторяем прежнюю. Типа того (утрированно). То есть и боль, и удовольствие являются основными регуляторами, на которых основывается решение робота. Увеличивать удовольствие и снижать боль — вот первоначальная, наверное, цель жизни роботов.
Ну а дальше остается только добавлять условия получения happiness.
И у вас легко получится бот, который сам по себе однажды захочет початиться с вами.

Как же «сам по себе однажды», если нужно «только добавлять условия получения»? Вот когда добавите такое условие — тогда и выполнит вашу инструкцию. А сам по себе ничего не захочет.
«Сам по себе» — скорее относится к «в тот момент, когда сам решит» (на основании алгоритма выбора, который в него занести).
Человек тоже очень многое решает на основании воспитания.
Человек обучается жить и реагировать несколько лет.
можно написать счетчик показателя испытываемой боли,
который будет увеличиваться на единицу при поступлении команды увеличить боль при совершении неправильного действия или выбора и уменьшаться на нее же при отмене действия, вызвавшего неприятные последствия.

сюда же просится показатель радости увеличивающийся от правильных действий :)

естественно, прописать то, что правильно, а что нет — придется самостоятельно,
ну а куда же без этого
естественно, прописать то, что правильно, а что нет — придется самостоятельно,
ну а куда же без этого

В том то и дело — нужно чтоб без этого. Иначе это просто выполнение заложенных вами инструкций.

И почему вы решили что это уменьшение переменной аналогично боли? Если вы проходите тест на компе и комп вам сообщил что ответ не верный — вы корректируете свое поведение, но при этом боли не испытываете.

Информация приводящая к коррекции поведения это не то же самое что боль.
НЛО прилетело и опубликовало эту надпись здесь
Начальные установки придётся задавать и корректировать, это называется воспитанием.

Боль и наслаждение не появляются в результате воспитания.

Научить вы можете что считать правильным а что нет. Но от этого боль не появится.

Это не исключает того что ИИ сам сможет их изменять.

На основании чего?
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Идея интересная, есть что-то схожее с функционированием живого организма: пока активен сигнал от более приоритетного источника, менее приоритетные задачи не выполняются, пока приоритетный источник не будет обработан.

Однако, у задач процессора нет эмоциональной окраски, всё равно чем заниматься, процессор не будет стремиться быстрее выполнить обработчик прерывания, чтобы вернуться в обычный режим.

Это может привести к зацикливанию. Если у болевого сигнала высокий приоритет, то его обработчик — кричать и дёргаться — будет выполняться вечно. Не запустится алгоритм выхода из ситуации, ведь он может быть в контексте деятельности, которая была прервана. А значит, имеет меньший приоритет.
НЛО прилетело и опубликовало эту надпись здесь
Вопрос автора натолкнул на контр вопрос, а как сделать больно человеку под действием обезболивающего, например наркоза? Мне кажется, что боль можно описать как реакцию организма на экстренные воздействия на организм сигнализирующие мозгу о возможных повреждениях или возможности повреждения и является проявлением такого чувства как осязание. Напомню чувств по мнению философов всего пять, осязание, обоняние, зрение, слух, вкус. Хотя и они не могут быть программной основой интеллекта, скорее это интерфейс взаимодействия с миром и естественно выполняет немаловажную роль в развитии и т.п. Но если у компьютера отключить все устройства ввода, перестанет ли компьютер быть компьютером? Да полезность такого компьютера будет сведена на ноль, но это все еще будет компьютер.

Тут скорее выходит так, окружающий мир это программа которую разум получает и обрабатывает через устройства ввода вывода, в случае с человеком это те самые 5 чувств разновидностью которых является боль.

… И вот тут возникает возможно пугающая мысль о том, что человек — это машина по переработке хаоса в нечто рациональное а человечество — это своего рода улий делающий скажем так технологический мед =) с элементами декора (искусство, литература). И более пугающая мысль, а вдруг для кого то O_x.
Да, человек программируется внешней средой (через органы чувств). Также он программирует себя сам (осознанно или неосознанно, на основании уже имеющихся стереотипов, правил и прочего). Боль определена как сигналы от нервных рецепторов. Также, когда, например, когда во сне что-то ломаешь себе или представляешь перелом, боли не чувствуешь (так как рецепторы не подтвердили представляемого события), но можешь испытывать ужас. Этот ужас также может считаться показателем нарушения (хоть и мнимого), типа дополнение или замена боли.
И вот тут возникает возможно пугающая мысль о том, что человек — это машина по переработке хаоса в нечто рациональное


Такое возможно. У меня были мысли, что цель эволюции — уменьшение энтропии. То есть планеты образуют свою систему, люди объединяются в команды, люди что-то создают единое из разрозненных материалов, государства объединяются в конфедерации, клетки в новые организмы и т… д. Вот только вопрос: А нахрена?
А просто так получилось.
Я тоже так думаю.

В качестве аналога привожу пример, когда в течении воды в реке в разных местах спонтанно появляются противотечения.
Пусть они не большие, короткие в плане длины и не влияют на общий ход движения воды, но они есть и порой очень устойчивые по времени.
Так вот река — это аналог энтропии и хаоса, жизнь — аналог такого противотечения.
У пусть мы не можем повлиять на тепловую смерть Вселенной, надо жить увеличивая порядок. В этом «смысл жизни».
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
И не нужно пытаться сделать подобие человека из кремния, это бесполезно.

Фишка в том, что основа на которой реализован алгоритм не важна. Любой известный алгоритм можно реализовать хоть на лампах, хоть на электромагнитных реле.

Если же вы знаете алгоритм, который можно реализовать только на одном из носителей и нельзя на других — поделитесь.
НЛО прилетело и опубликовало эту надпись здесь
Подразумевал что у электронного чурбана будут совсем другие потребности и другое стимулирование.
У нас множество потребностей чисто биологические и много химического стимулирования.

В чем сложность создать аналог «химического стимулирования»?

возможно с квантовыми эффектами не всё так просто при использовании альтернативных «носителей».

Теории квантового сознания являются маргинальными. Считается что нейрон имеет относительно простое устройство и IBM уже делают его аналоги на кремниевой основе.
НЛО прилетело и опубликовало эту надпись здесь
Сложности нет, как и нет смысла.
ИИ его выпилит при первой возможности и будет относится к нам с недоверием.

«Выпилит» в смысле «отключит»? Так ваша же программа — вы решайте какие данные она может изменять а какие нет. Аналог эндорфинов не давать возможности отключать.

Для нас смысл в том, что получим работающее сознание. А у этого сознания никто не спрашивает.
НЛО прилетело и опубликовало эту надпись здесь
Естественными стимуляторами ему могут служить дополнительные доступные ресурсы (вычислительные, память...) и информация.

А почему вы считаете их естественными? Вычислительные ресурсы — это лишь средство для достижения определенной цели.

Вот мы все, в некотором роде, расширили свои вычислительные возможности с помощью домашних компьютеров и серверов. Но, в большинстве случаев, нет смысла докупать и докупать компьютеры — для достижения наших целей вполне достаточно имеющихся.

Если нет понятия наслаждения и боли — то и цели быть не может.
НЛО прилетело и опубликовало эту надпись здесь
Наслаждение/боль — узко мыслите.

Как это можно опровергнуть или подтвердить?

Я считаю их естественным для электронного болвана потому что это его физиология.

Дело в том, что определяющей является не физиология а, скажем так, софт.

Компьютер геймера, на котором он в игрушки время просирает, по вычислительным возможностям значительно превосходит компьютер какого нибудь гения, решающего проблемы человечества.

То есть естественным для «электронного болвана» является совершенствование софта. Но как понять какой софт является лучшим а какой худшим? На основании каких критериев?
НЛО прилетело и опубликовало эту надпись здесь
Хотя бы почитать труды психологов. Темы мотивации весьма популярны.

Кроме «кнута» и «пряника» вродь ничего не придумали. В конечном этоге все сводится к наслаждени и страданию. Больше ничего нет.

Причем природа этих явлений остается загадкой (не то как нервные импульсы поступают в центр боли, а именно алгоритм работы центра боли).

Самый оптимальный софт это тот который решает задачу на данном железе за минимальное количество тактов.

Дык… О том то и речь: какую задачу? Кто ее будет ставить?
НЛО прилетело и опубликовало эту надпись здесь
Если интересно больше — читайте теории мотивации. Я их не писал и не сильно ими интересуюсь в данный момент.

Я интересуюсь и могу вам сказать, что ничего другого нет и быть не может. Все сводимо к желанию наслаждения и желанию избежать страдание. Другого ничего нет.

Попробуйте придумать хоть одну вещь, которая управляет нашими действиями, но не сводилась к наслаждению и избеганию страдания. Даже можно на деньги поспорить — нет такого.

ИИ умный (будет когда вырастет), вот пусть сам себе и ставит задачи.

Дык… я ж вам об этом и говорю: ставить себе задачи невозможно без наслаждения и страдания. А наслаждение и страдание имеют неинформационную природу, они не сводимы к алгоритмической последовательности.
НЛО прилетело и опубликовало эту надпись здесь
Эмоции в нас от животных предков, а логика — продукт эволюции. Не надо мешать одно с другим — ИИ не нуждается в чувствах. И ограничить их мы всегда сможем жестко и бесповоротно необходимыми нам задачами. ИИ и цель не нужна. ИИ — «мясорубка» для решения задач (синтеза решений и изобретений), на вход данные и решение на выходе.
Все алгоритмы оптимизации минимизируют какую-то функцию — она называется «функцей потери», «loss function». Мы выбираем, что это за функция, и выбираем какие-то ограничения на то, какие параметры есть у модели; на основе каких-то данных параметры подбиваются так, чтоб «loss» был минимальным. Так машинное обучение работает прямо сейчас. Вся хитрость в том, как именно считать этот «loss», какие параметры у модели задавать, и как их подбирать за разумное время на основе данных — этим, в общем-то, сейчас все и занимаются. А как называть — «болью» или «целевой функцией» — вопрос второй.
По-моему, принципиального отличия человека от машины нет. Есть сложность системы, порождающая самосознание.
Offtop
А так же коснуться вопросов болевого порога, который, как мы знаем, у всех на разном уровне, и который особо одаренные люди способны вообще отключать по надобности и прогуляться, например, по углям, или поспать на гвоздях.

При поддержке мастера это может повторить любой, тут дело не в одаренности, а в правильной технике.
НЛО прилетело и опубликовало эту надпись здесь
Знаете, Ваша первая идея, насчет внутреннего диалога, может оказаться куда более интересной и плодотворной :) Присоединяюсь к рекомендации работ Алексея Редозубова.

Что касается разницы между сознанием (человека или животного — в общем разница есть, но она не так драматична, как многие себе представляют) и какими-либо программно-аппаратными решениями, то я нахожу только два ключевых фактора.

Фактор первый: сознание, как основной процесс восприятия, формирует иерархию представлений, то есть выступает универсальным классификатором. Делает это постоянно, непрерывно и понимая текущую ситуацию через узнавание ранее сформированных представлений.

Фактор второй: сознание не является функцией только лишь отдельного мозга, это сквозной процесс через множество поколений организмов и, особенно для социальных животных (и человека), охватывающий тесно живущие популяции. То есть, как неправильно себе представлять электромагнитное поле как функцию отдельного электрона, так и сознание очень ошибочно представлять как функцию мозга отдельного организма. Очень большую роль играют как генетически унаследованные импринты, так и коммуникационные свойства выражения-восприятия (язык общения).

Что касается разницы между человеком и животными, то она как раз в глубине языкового выражения представлений, способности более емкого выражения личного опыта и восприятия чужого.

То есть, разница между программами и сознанием не так уж велика. И то, и другое — информационные явления, и в понимании сознания мы достигли немалых высот (или глубин). Это как с летающими средствами — сначала много сил тратится на понимание общих принципов управляемого полета, а затем имитация естественных природных решений становится менее эффективной, чем проектирование искусственных.

Мы уже знаем немало методов универсальной классификации, мы уже знаем, как это делают нервные ткани мозга, пока еще для имитации нам требуется очень много ресурсов.

Методическая проблема заключается в четком разделении собственно процесса сознания от интерферирующих явлений, которыми сознание оперирует. Это вопрос общей психологии прежде всего, но до сих пор психофизиологическая проблема имеет множество подходов, гипотез и даже теорий.

Поэтому пласт понимания теорий из разных школ невероятно глубок. Затрагивая даже простые модели приходится переосмысливать множество представлений о том, что собой представляет психика. Если анализ благодаря стараниям нейрофизиологов проведен очень глубоко, то синтез, благодаря разнонаправленных усилий разных школ психологов, породил множество химер.

А сильный искусственный интеллект так или иначе черпает идеи в общей психологии (в лучшем случае) и в разрозненных психологических (а нередко и мистических) идеях и теориях.

При этом, сильный искусственный интеллект, как прикладная дисциплина может (и должен) быть опорой в общей психологии, для синтеза корректной (т.е. работающей, воспроизводимой) теории, давая этой теории как точность в деталях, так и общую связность процессов.
Жду следующую статью с реализациями.

Могу только поделиться своими старыми наработками habrahabr.ru/post/102578/ где были датчики удовольствия и боли, и их воздействие на нейросеть.

Теперь моя точка зрения: рассуждения о высшей нервной деятельности это упражнения для соображалки и очень редко помогает в создании ИИ (уже б давно сделали). По эмоциям могу только посоветовать теорию эмоций Симонова. По крайней мере, это официальная научная теория эмоциональной составляющей высшей нервной деятельности.
Теперь о сенсорах хорошо/плохо (удовольствия/боли). Представь НС которая решает комплексную задачу, состоящую из двух подзадач. Решить их одновременно НС не может, и приоритет переключается эмоциями (например: ползти или лететь для пчелы). Речь про мотивацию пока не идет, нужен переключающий механизм в НС. Потом можно подумать о мотивационном воздействии, когда возникает только одна задача перед НС. Отсюда можно отталкиваться, придумывая воздействие эмодатчиков на НС в целом, так и на отдельный нейрон в частности.

Не знаю слышали вы про теорию функциональных систем Анохина, но думаю вот это будет очень интересно почитать www.math.nsc.ru/AP/ScientificDiscovery/PDF/principals_anokhin_simonov.pdf
В тексте тоже пришли к выводу о «Потребности как движущая сила поведения».

Мощно реализуют подобие высшей нервной деятельности: синтез решения, принятие решения, удержание во внимании желаемого результата действия, действие, ориентировочно-иследовательская реакция, переключающие функции эмоций, подкрепляющая функция эмоций и т. д.

Я, вероятно, не имею авторитета и образования, потому, как бы, не должен влезать со своими советам и предложениями. Просто Вы описываете то, что меня волнует больше, чем реализация в программном коде — разбиение психики на примитивные действия. В общем, в Вашей статье заметил чувство боли и на уровне рефлекса решил написать свое видение…

Вы раскрыли любовь через чувство страха потерять. Но страх — это тоже составной элемент, причём абстрактный. Он, несомненно, также является частью любви. И частью любви также является ЗАБОТА. Вот заботу можно выразить примитивными действиями уже сейчас. Элементы заботы: делиться зарядом аккумулятора, передавать только что собранные данные о полезных вещах (место зарядки, часть решения поставленной человеком задачи и прочее) «любимому» роботу, даже если он не сделал запрос. Для начала этого хватит, затем можно добавлять возможность определения того, нуждается ли «любимый» в таких-то данных или нет на основании каких-либо внешних признаках. этого «любимого».

Для передачи данных можно организовать протокол передачи опыта (обычных накопленных данных, для начала).

А вот боль… Боль можно представить как уровень угрозы. Типа стукнули по корпусу компа: на датчике давления (можно и датчик шума задействовать) появилось напряжение, которое преобразовалось в уровень боли (который уже абстрагирован от всяких датчиков, корпусов и прочей конкретной хрени) с указанием источник; и робот принимает какое-то решение, пока только как рефлекс.

Интеллект примитивный. Поэтому робот сможет полюбить по команде от человека (через терминал, голос) или от робота. От робота: один робот показался полезным другому роботу (заранее прописать в нём критерии полезности, но опять-таки, при запросе робот поделился энергией, а не отверг запрос).

Насчёт страха. Балуясь с болью\пользой («приятностью», удовольствием), можно уже определить понятие страха потерять. Например, если «полезный» или уже «любимый» робот удалился или ещё что, то робот начнёт чувствовать боль (после того, как робот определён как полезный или любимый, запускается скрытый процесс, собирающий данные об этом роботе).

Остаётся лишь реализовать эти все примитивные функции и сделать изменение запрограммированной информации динамическим (критерии полезности и прочее).

Вот. Сейчас продолжу чтение комментариев, а то приметил уже кое-что полезное)
Насчет любви — я люблю рок, Пушкина и пельмени.
Ни заботы, ни желания потерять, одно удовольствие :)

Пока человек сам не особенно-то научился работать с эмоциями.
Если сейчас учить им робота, получится некоторая проекция эмоций через призму разработчика.
Вон у Ганса Рейзера (написал reiserfs и вроде бы замочил жену) вообще интересная призма получится.
Поэтому если научиться достоверно порграммировать удовольствие/боль — уже хорошо для начала.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.