Pull to refresh

Comments 191

Буду готовить следующую публикацию по простейшему М-автомату (т.н. «робот Спиди»). Там будет код в полном объеме. Модуль с базовыми классами могу выложить (код ко второй части), но пока особого смысла не вижу… Если есть интерес могу выслать, но есть еще один момент — коды привязаны к собственной библиотеке (Delphi). Поэтому просто так скомпилировать пример не удастся.
в собранном виде в виде приложения?
в собранном виде в виде приложения?

Да, в виде готового приложения. Его исходники я выложу на git. В конце 2-ой части сформулировал для себя ТЗ на конфигуратор. Планирую в течении ближайших 2-х недель завершить работу. Есть вариант реализации простейшего автомата. Но он для «поиграть» скорее всего не подойдет.
Прошу кратко описать ваше понимание ТПС. Не только для меня, тут целый круг интересующихся образовался.
А вы уверены в существовании т.н. ТПС?
Конечно. Чуть ниже отвечу развернуто.
А вы можете сформулировать ТПС своими словами так, что бы сразу стало понятно: почему это проблема, а главное — почему трудная? ;)

Вон автор вообще сомневается в существовании проблемы, как таковой…

Я бы, чисто из любопытства ответил бы со своей точки зрения, если хотите, но боюсь, что буду отвечать не совсем на то, что вы хотите услышать! Поэтому прошу переформулировать вопрос…

Впрочем, вы же не моим мнением интересовались — так что тут как бы… Если интересно. ;)
вы можете сформулировать ТПС своими словами так, что бы сразу стало понятно: почему это проблема, а главное — почему

Попробую.

Проще всего на практическом задании: создать девайс, который сможет ощущать наслаждение и страдание в полной мере (как человек или более простые существа). Но важно отличать, что испытать страдание и сделать видимость страдания (как делает актер в кино) — вещи разные. Нужна не видимость а именно настоящее испытание.

Это повлияет на наше понимание добра и зла. К примеру, сейчас запрещено истязать животных, причинять им необоснованные страдания. Почему? Потому что необоснованное страдание само по себе зло. Но! Если будет девайс, который точно так сможет страдать — то придется вводить статью в УК, которая запрещает запускать некие процессы и сам по себе запуск этих процессов даже в замкнутом пространстве — будет злом.

Надеюсь на этом примере понятно.
Ничего не понятно. В чем проблема?
Ничего не понятно. В чем проблема?

Проблема — создать девайс, который сможет испытывать страдание и наслаждение. Создали девайс — значит решили ТПС.

Но еще раз повторюсь: нужно не создать иллюзию в голове наблюдателя, как это делают актеры в кино. А именно повторить все процессы ЦНС, которые возникают в момент страдания и наслаждения.

Почему именно страдание выбрал? Потому что редко кто скажет, что страдания вообще не существует. Т.е. как бы аксиома — страдание есть, на это многое завязано в нашем мире. А раз есть — то каким должен быть минимальный механизм/девайс, чтобы он смог испытать страдание.
Проблема в чем? Вы ее для себя не можете сформулировать. Хотя бы процитируйте Чалмерса
Проблема в чем?

Обозначил вам практическую проблему: создать девайс, который сможет испытать наслаждение и страдание. Вы знаете как это сделать? Хотя бы примерно? Нет, ни у кого нет ни одной гипотезы.

Это достаточно конкретное задание?

Хотя бы процитируйте Чалмерса

Мне не нужно никого цитировать, т.к. понятна суть. Мое практическое задание сразу отображает суть проблемы. Если вы девайс смогли создать — покажите его, объясните как он работает и докажите, что он на самом деле испытывает страдание. Если не смогли создать — то думайте над тем как его сделать — это и есть проблема.
Вы ставили вопрос про ТПС. Причем здесь «девайс»?
Данный девайс и является квинтессенцией ТПС. Если вы создали данный девайс — значит вы разрешили ТПС. Данный девайс можно создать? Однозначно да. Вот и работайте.

Но учтите, что после создания данного девайса — придется менять УК — вам просто запретять запускать процесс страдания, как запрещают истязать высших животных, к примеру.
придется менять УК

Это уже вопрос юристов и политиков. Пусть они мучаются с определением ТПС и квалия. Я надеюсь, что на референдуме по этому вопросу мне голосовать не придется.
Это уже вопрос юристов и политиков. Пусть они мучаются с определением ТПС и квалия.

Это до момента появления искусственного девайса, который воссоздает данный эффект. Появился девайс — уже создатель девайса должен пояснить какие именно процессы позволяют ощутить страдание. После чего умышленный запуск данных процессов должен быть запрещен, как запрещено любое издевательство.

Данный девайс — лишь конкретно поясняет суть проблемы. Но последствия сложно себе представить.
>>>> умышленный запуск данных процессов должен быть запрещен, как запрещено любое издевательство

Издевательство и умышленное причинение страдания — две большие разницы. ;)

Как и в случае с нейронными сетями/ML-агентами практически все обучение строится на методе кнута и пряника. Плохие оценки, штрафы, пенитенциарная система, в конце концов. Дрессировка животных и воспитание детей, система наказаний/поощрений сотрудников… Да и сама жизнь — тот еще полигон для страданий!
Отличается лишь силой воздействия. Видимо как и сложность ЦНС — не любой сложности достаточно, чтобы издевательство имело нравственные последствия (вряд ли кого осудят, если будет рвать на кусочки медузу, без развитой ЦНС).
>>> Отличается лишь силой воздействия.

Не соглашусь. Сила воздействия мало сопоставима с интенсивностью переживания страдания. Боец ММА настолько привычен к боли, что она для него не повод для страдания, а людей с «ранимой душой» может заставить бешено страдать неосторожное слово!

>>> Видимо как и сложность ЦНС

В этом есть определенная доля истины, хотя… Без сложной ЦНС страдание скорее всего равно внешнему воздействию. Т.е. медуза вполне страдает, когда ее рвут, но вряд-ли от неразделенной любви! Хотя кто их, медуз, знает…
Боец ММА настолько привычен к боли, что она для него не повод для страдания
А груша для тренировок? Она страдает? Висела себе в покое, и вдруг вывели ее из равновесия… может ведь и ответить… незадачливому бойцу ММА

Умеренный панпсихизм рулит?
Груша для тренировок может страдать только в том случае, если это умная груша, ну в смысле — некий гаджет, в котором достаточно сложная начинка, что бы возможно было реализовать страдание…

Да и в случае груши полагаю она скорее кайфует, т.к. получать удары есть прямое ее назначение тобишь — смысл существования! Она скорее грустит и страдает без ударов. ;) что по панпсихизму, что в плане умного девайса…
некий гаджет, в котором достаточно сложная начинка

Не просто любая сложность подходит — нужна определенная схема, которой никто не знает.
Я ведь понимаю, о чем вы. ;) Мы не можем знать, что испытывает чуждый нам вид сознания и все наши попытки как-то интерпретировать оные — сродни одушевлению неодушевленных предметов… Т.е. мы проецируем свое восприятие на нечто, что таки восприятием не обладает…

Однако, одушевление неживого и интерпретация чужого восприятия все-таки разные вещи. В случае даже несложных нейросетей/ML-агентов все-таки есть восприятие, есть некое квалиа (в качестве эмбендингов/внутренних состояний сетей), и хотя мы не можем сказать, что оно собой представляет — это объективный, измеряемый феномен… Насколько можно этому феномену придавать человеческую оценку — вопрос. Скорее всего во многом codecity прав — что бы проводить какие-то параллели, нужна весьма высокая степень подобия систем…
что бы проводить какие-то параллели, нужна весьма высокая степень подобия систем

Особый интерес представляет феномен наслаждения и страдания. Это многое изменяет — начиная от религий и заканчивая гос. законами/отношениями в обществе. Последствия сложно представить.

Парадокс в том, что умеющий страдать девайс — будет обладать некими правами как существо — придется добавлять правовые нормы для защиты этого девайса от страданий, если эти страдания такие же, как у существа с развитой ЦНС. Это все меняет.

Т.е. железки строго разделятся на 2 категории: бесправные просто железки и субъекты, которые обладают некими правами.
>>>Особый интерес представляет феномен наслаждения и страдания.

Да нет — ничего особенного… ;) Не больше чем вопрос как другой человек воспринимает «синий».

Меня начинает пугать ваша одержимость страдающими железками! Я пожалуй не буду развивать тему в этом направлении. ))))
Да нет — ничего особенного… ;)

Особенное в том, что если данный девайс сможет страдать как существо с развитой ЦНС — то это имеет юридические и нравственные последствия. А это меняет саму основу нашего общества и отношений — начиная от религии, заканчивая правом.
По вашей версии «доказательства» вы отказываете в праве на страдание фактически всем, кроме себя. ) Что не мешает иметь определенные юридические/нравственные последствия за издевательства не только над себе подобными но и над высшими животными. При этом еще лет 150-200 назад в принципе на многие издевательства даже над себе подобными смотрели сквозь пальцы…

И изменилось это вовсе не благодаря какой-то сложной доказательной системе, а просто потому, что в обществе это постепенно стало недопустимо.

Так же и с искусственными системами/виртуальными личностями — как только их обратная связь станет достаточно убедительна — будут находится люди измывающиеся над виртуалами и люди их защищающие. В их риторике будет конечно присутствовать та или иная доказательная база относительно действительности/реальности страданий, но в конце концов все сведется к тому, что дело не в страдающем, а в причиняющем страдания, что жестокость есть жестокость и ее проявления — плохо…
В их риторике будет конечно присутствовать та или иная доказательная база относительно действительности/реальности страданий, но в конце концов все сведется к тому, что дело не в страдающем, а в причиняющем страдания, что жестокость есть жестокость и ее проявления — плохо…

Тут не вопрос плохо или хорошо. Вопрос наказания, возмездия. Если ты сделал кукулу без чувств, которая умеет кричать (воспроизводить запись в нужный момент) и начал ее насиловать — равнозначно ли это настоящему изнасилованию того, кто страдания реально ощущает?

Вам проще свести к тому, что не имеет значения настоящие страдания или симуляция — чтобы не решать эту важную проблему. Но между тем, проблема является ключевой и от нее не уйти.

На эту проблему так же завязаны практически все религии мира.

И на эту же проблему завязан вопрос симуляции, т.е. является ли наш мир симуляцией, является ли сознание частью нашего мира или протягивается через API из мира высшего, в котором наша симуляция запущена.

Еще много вопросов завязаны на это, все эти вопросы реально определяют отношения в обществе, мировоззрение, цели, вопросы добра и зла.
>>> Вам проще свести к тому, что не имеет значения настоящие страдания или симуляция

С чего вы это взяли? Я нигде не говорил, что это не имеет значения. Имеет, но абсолютно не в том контексте, о котором говорите вы!

С точки зрения наказания/возмездия — это действительно не важно: насилует ли человек куклу или живое существо в том плане, что в нем есть потребность в насилии. Т.е. он жесток по своей сути и тот факт, что он реализует свою жестокость на бездушном предмете не делает ЕГО лучше. И это проблема — ЕГО, а не объекта его насилия.

Для меня безусловно важны особенности восприятия искусственного разума, но… Не в этой плоскости. Я знаю, что существуют внутренние представления различных, причем достаточно абстрактных феноменов и я знаю, что мои «квалиа» являются аналогичными, представлениями, но далеко не обязательно совпадающими. Для меня этого достаточно, поэтому ваш вопрос не актуален (ну кроме как в качестве разминки для ума).

Ваши утверждения о том, что этот вопрос (как я понимаю дословно: Создание искусственного страдающего?) — есть вопрос вопросов, мне видится как минимум спорным и весьма натянутым. Вызывает ассоциации с работами профессора Выбегалло. Как это связано с симуляцией, API и религиями хорошо бы обосновать! )
С точки зрения наказания/возмездия — это действительно не важно: насилует ли человек куклу или живое существо в том плане, что в нем есть потребность в насилии

Еще как важно. Посмотрите основы права — если человек хочет совершить преступление но не совершает, даже по причине лени или страха — наказание к нему не применимо.
Т.е. он жесток по своей сути и тот факт, что он реализует свою жестокость на бездушном предмете не делает ЕГО лучше.

И что? Если человек плохой внутри — он ничего с этим поделать не сможет — и это не подлежит наказанию. Если человек жесток по своей сути, но не делает зла из-за страха — нет и наказания. Считать ли злом «насилие» куклы, которая ничего не ощущает?

мои «квалиа» являются аналогичными, представлениями, но далеко не обязательно совпадающими

Интерес возникает в случае, когда квалиа становятся страданиями и наслаждениями — в этот момент возникает понятие добра и зла.

есть вопрос вопросов, мне видится как минимум спорным и весьма натянутым

Мне это очевидно. Рад что не всем очевидно — значит есть потребность в моих доводах, главное теперь понять как лучше донести, чтобы и вы поняли.

Как это связано с симуляцией, API и религиями хорошо бы обосновать!

Вопрос симуляции важен лишь в случае, если игрок не является частью нашего мира а протягивается из настоящего мира через некие API. Как в комп. игре — игрок не является частью мира комп. игры а протягивается в игру посредством джойстика и комп. экрана. Дальше объяснять?

По религиям. Каждая религия основана на вере в то, что ваша способность страдать и наслаждаться сохранится после смерти. Религия обещает избавление от страданий и вечное наслаждение той субстанции в вас, которая это умеет. Так вот и вопрос — что именно в человеке умеет страдать и наслаждаться — если это не сохраняется после смерти — то религия ошибочна.

Вы как-то… вольно меняете уровни дискуссии! От чисто практических моментов до метафизики. Хотя, может вы не меняете, а просто не достаточно четко обозначили их...


Вы говорите о воздаянии мирском, или в религиозном смысле? Если чисто юридически — это одно, если «по делам вашим да воздастся вам» — другое. Юридически, существуют люди, обрекшие на смерть либо страдания сотни и тысячи себе подобных, к которым вопросов нет. С точки зрения чистоты помыслов и величия души — пытки тараканов и червяков — безусловное зло.


Конда вы говорите про возникновение понятий добра и зла — вы это в юридическом или метафизическом смысле?


Дальше объяснять?

Конечно! Пока совершенно не очевидно, что вы хотите сказать.


Категориями страдания/наслаждения благо и зло не ограничивается. Сама по себе концепция наказания предполагает причинение страданий во благо, а список смертных грехов представляет собой список удовольствий.


Религия, по крайней мере ее массовая/публичная часть — это способ обмануть систему мотивации (ориентированную на стремление к удовольствию и избегании страданий) — обещая бесконечную награду в случае следования определенной стратегии (и бесконечный штраф в случае отказа ей следовать), не смотря на то, что эта стратегия далека от максимального выигрыша в моменте. ;) можно смотреть на нее и по-другому, но еще раз: нужно понять мы в каком системе координат диалог ведем? ;)

Вы говорите о воздаянии мирском, или в религиозном смысле?

В абсолютном. Когда мы не знаем природу страданий, но для жизни все равно нужно сделать некое допущение — то возникают разные философские позиции на этот счет. В разных религиях и разных гос. строях — разные философские позиции.

Когда же природа страдания/наслаждения будет известна достоверно — то не будет нужды в философских позициях — будут научные данные.

Конечно! Пока совершенно не очевидно, что вы хотите сказать.

Для наглядности — вспомните фильм «Матрица». В чем там фишка и несправедливость? Люди находились в настоящем мире (или в высшем), были подключены к системе жизнеобеспечения, а игра велась в симуляции (т.е. в игровом мире). Т.е. игроки были в одом мире, протягивались через API в мир симуляции. Так вот — изучая строения игрока внутри симуляции — мы сможем получить ответ является ли игрок частью симуляции или нет. Скорее всего в рамках симуляции API будет сокрыто в некие фундаментальные процессы.

Наверное нужно объяснять еще подробнее. Или понятно в чем суть?

Категориями страдания/наслаждения благо и зло не ограничивается.

Только на них зиждется.

концепция наказания предполагает причинение страданий во благо

Да, для того, чтобы уменьшить страдания других людей или самого человека по отношению к себе.

список смертных грехов представляет собой список удовольствий

Если получил удовольствия на 1 балл, но потом заплатил ты или другой человек 10 баллами — то это грех. Как бы приводят список того, что имеет негативные последствия, даже если эти последствия не сразу очевидны. Украл — страдание понес другой человек.

не смотря на то, что эта стратегия далека от максимального выигрыша в моменте

Опять же — за выигрышь вы считаете — максимальное как про силе так и по продолжительности НАСЛАЖДЕНИЕ и отсутствие страдания. Вот в этом и вся суть.
Наверное нужно объяснять еще подробнее.

Нужно. Потому, что у меня создается впечатление, Что вы по каким-то причинам считаете, что если наша реальность — симуляция, то и страдания в ней — не настоящие.


Я придерживаюсь строго обратного мнения: меня мало волнует «реальность» как таковая, ибо важно как она переживается сознанием. Матрица это, тональ, или иллюзия/сон — не имеет значения.

если наша реальность — симуляция, то и страдания в ней — не настоящие

Есть два принципиально разных вида симуляции:

1. Игрок является частью симуляции, он полностью воссоздан на элементах симуляции.
2. Игрок не является частью симуляции и протягивается в игровой мир через некие API. Так происходит во всех комп. играх (игрок протягивается через джойстик/клавиатуру/мышь/микрофон/дисплей и т.д.), таков сценарий в фильме Матрица.

Если наш мир построен по 1 варианту — вопросов нет — мы настолько же реальны, как и наш мир.

Если же по 2 варианту, то возникает банальный вопрос — а где же наша настоящая сущность и по своей ли воле/на каких условиях мы сидим в высшем мире с шлемом на голове (образно) и играем в эту «игру».

С этим согласны?
С этим согласны?

Смотря с чем...


По пункту 1, я не совсем понял: мы настолько же реальны, как наш мир, а наши страдания так же реальны как мы… т.е. реальность страданий определяется реальностью мира? Но как вы относитесь к такому миру? Если вы считаете, что этот мир не реален, мы не реальны и страдание — не настоящее — нет не согласен. ;)


По второму пункту все еще сложнее. Игрок, знающий, что он игрок возможно «симулирует». Но при достаточно сложной симуляции у него может быть достаточно высокоразвитый «аватар», не знающий о хозяине и страдания которого могут быть реальны. Что касается живущих в симуляции персонажей — зависит от их реализации… ;)

Но как вы относитесь к такому миру? Если вы считаете, что этот мир не реален, мы не реальны и страдание — не настоящее — нет не согласен. ;)

Если мы живем в таком мире — то изнутри не будет ни единой возможности отличить его от мира высшего/первичного. Только хозяева симуляции, при желании, смогут доказать, что мир не настоящий, продемонстрировав так называемое чудо (к примеру, походить по воде или превратить воду в вино) — нарушение законов природы нашего мира, тем самым доказав, что мир является симуляцией и эта симуляция управляется ими.

Игрок, знающий, что он игрок возможно «симулирует».

Игрок не знает ничего.

при достаточно сложной симуляции у него может быть достаточно высокоразвитый «аватар», не знающий о хозяине и страдания которого могут быть реальны

Страдания реальны в каждом из вариантов. Но в первом варианте реализованы на базе элементов симуляции, а во втором варианте — протягиваются из мира, где запущена симуляция.
>>>изнутри не будет ни единой возможности отличить его от мира высшего

Безусловно! Именно поэтому, я считаю, что это (виртуален мир или нет) — не имеет значения. Мы живем в этом мире и абсолютно не важно — есть ли для него высшие и сколько их.

>>>Игрок не знает ничего.

Откуда такая уверенность? ;) Впрочем… Если вы — бот, то ничего не знаете про игроков. Если вы игрок/аватар — вы можете утверждать что угодно, но это не имеет значения. На всякий случай: под игроками я имею ввиду тех, для которых наш мир — симуляция, т.е. выходцев из «высшего», которые к нам заходят «поиграть». Для этого они используют «аватара» — т.е. сущность, являющуюся частью этого мира. Ботами — соответственно я называю тех, у кого нет игрока. ))) Ну это все в качестве «гипотетической разминки для ума».

>>>Страдания реальны в каждом из вариантов. Но в первом варианте реализованы на базе элементов симуляции, а во втором варианте — протягиваются из мира, где запущена симуляция.

Вот с этим согласен. И мало того — утверждаю, что нет разницы, как страдания реализованы и откуда подтягиваются.
я считаю, что это (виртуален мир или нет) — не имеет значения.

Для 1 типа — не имеет (да и то, при условии, что Создатели не явили чудо, а ведь некоторые уверенны что явили), для 2 типа — еще как имеет.
>>> для 2 типа — еще как имеет.

Требуется развернутое пояснение.
Что тут не ясного? Если в настоящем мире ты сейчас сидишь в шлеме вирт. реальности с потертой памятью — не хочешь узнать об этом?
Ммм… Это отдельный процесс, не имеющий отношения к дискуссии.

Я могу быть синтетическим устройством в виде коробки с диодами, моллюском, бестелесным существом не способным к чувственному опыту, либо находится в матрице «с потертой памятью» — хотел бы я узнать об этом? Да фиг его знает! А что это меняет?

В любом случае это никак не обесценивает мой жизненный опыт, мои радости и горести — мою жизнь. Жизнь есть жизнь — виртуальная она или нет.

PS Рад, что мы перешли на ты — сам хотел предложить. ;)
А что это меняет?

Многое. Во-первых, точно узнаешь, что физическая смерть в данной симуляции на существование твоей сущности не повлияет — сущность в другом мире (как убийство твоей аватарки в комп. игре — не убивает тебя). Во-вторых, станет вопрос что там в другом мире, по своей ли воле мы надели этот шлем, чего от нас хотят хозяева симуляции. Может быть даже общечеловеческую забостовку устроим и будем требовать от хозяев симуляции разъяснений.
Тут как бы два момента… Даже три.

Первый: возможно, даже если ты не помнишь, что там и как — так и нужно/задумано. Начиная от того, что ты 8-ми мерное существо, которое просто ради отдохнуть и развлечься решило поиграть в «казуалочку», а тут тебе пытаются напомнить, что это все не настоящее — короче ломают кайф. ;)

Во-вторых, не исключена проблема Аватара: все, что ты знаешь здесь о себе, весь твой жизненный опыт — есть фактически персонаж и его стори-лайн. А реальная «личность» игрока может оказаться абсолютно чуждой тому, что ты сейчас считаешь собой. в таком случае… Что ты узнаешь? ты так и останешься персонажем — осознать внешнюю личность вне твоего понятийного поля…

В третьих — кто тебе сказал, что это РПГ от первого лица? ;) Мож стратегия? В том смысле, что «настоящая» личность у нас одна на всех и сейчас она по очереди то за меня, то за тебя пишет…

Ну и опять же — проблему того, что ты: бот, тож никто не отменял.
Даже три

Больше чем 3. Вот по этому и хотелось бы исключить вариант, что настоящая личность не в нашем мире.
Абсолютно нет. )

Это были моменты по которым я не уверен, что я хотел бы это знать! По всем этим аспектам — я либо не смогу этого сделать, либо и так узнаю в свое время — так зачем торопить события? Либо это просто не важно.
Это были моменты по которым я не уверен, что я хотел бы это знать

Вы похожи на страуса, который спраятал голову в песок. Если это можно узнать — мы должны узнать. Хотя бы попытаться.
Вовсе не обязательно. ;)

Например у вас есть возможность узнать чем закончилась книга/кино заглянув в конец — вы же не будете этого делать?

Или, вам говорят: вы можете прямо сейчас заглянуть за кулисы театра, но тогда вам закрыт вход на представление! Ну а если вы посмотрите представление — вы уже не сможете заглянуть за кулисы…

Это очень непростой выбор. ) Когда был молодой-зеленый точно бы выбрал кулисы! Сейчас… Не уверен. А вдруг за кулисами тошнотворно скучно и банально, а спектакль прекрасен!

При этом еще лет 150-200 назад в принципе на многие издевательства даже над себе подобными смотрели сквозь пальцы…

Сейчас очень многие всё ещё смотрят так же, к сожалению... Не говоря уж о смысле понятия "себе подобные".

будет обладать некими правами как существо

Почему права воспринимаются как некое само-собой разумеющееся свойство страдающего существа? Они возникли лишь как средство оптимизации отношений социальных животных. Причем наличие этих прав и отношение к ним разнится в зависимости от эпох, культур и религий.


Это одеяло можно тянуть все дальше, одаривая юридической защитой всех кто стремится к благоприятным условиям и избегает иных ситуаций: животных выстраивающих свое взаимодействие со средой используя нейронные сети, бактерий, чье движение определяет градиент питательных или вредных веществ, молекул, страдающих в возбужденных состояниях, и убегающих в потенциальную яму, попутно раскидывая фотоны...


Где проводить границу: на воронах, решающих сложные головоломки, на червях, боящихся света после экспериментов с ударами током, или на людях с алекситимией, сенсорно-вегетативной невропатией, задержками в развитии?


Скорее, одеяло будет ползти в другую сторону: коллективизация, подавление индивидуальности, жертвы единиц во благо многих — то чем пугают антиутопии, так как такого рода общества будут более скооперированны и организованны, что естественный отбор частенько поощряет

Почему права воспринимаются как некое само-собой разумеющееся свойство страдающего существа?

Сами принципы добра и зла — основаны на страдании и наслаждении. Если что-то не умеет страдать — вы не сможете сделать ему злого. Это как бы да, и так понятно.

А наказуемость зла — это уже результат соц. отношений.

Где проводить границу: на воронах, решающих сложные головоломки, на червях...

Вопрос хороший. От этого и зависит наши отношения как существ друг с другом. К примеру, создатели нашумевшего фильма «Земляне» ратуют и за непричинение зла домашним животным. Джайнисты стараются не причинять зла даже муравьям.

В разные времена/культуры ответ на этот вопрос был разным — и на этом ответе основывались отношения. К примеру, ранее некоторые считали что у негров нет души — по этому их страдания не настоящие.

Этот вопрос все и определяет и ответ на него должен быть научным. Что есть страдание, есть ли у страдания мера (как то человек страдает максимум на 100 единиц а червь максимум на 0.0001 единицу — таким страданием можно принебречь).
Однако, одушевление неживого и интерпретация чужого восприятия все-таки разные вещи. В случае даже несложных нейросетей/ML-агентов все-таки есть восприятие, есть некое квалиа (в качестве эмбендингов/внутренних состояний сетей), и хотя мы не можем сказать, что оно собой представляет — это объективный, измеряемый феномен… Насколько можно этому феномену придавать человеческую оценку — вопрос.
Конечно… одушевление это перенос человеком восприятия и логики на неизвестное — нулевая гипотеза познания. Отсюда корни антропоморфизма во многих представлениях, берущих начало на подсознательном уровне. В форме теории ума это также позволяет индивидам жить в условиях социума. Дети могут искренне верить в одушевленность — персонажей тех же мультиков, или игрушек, взрослые лишь поддаются их обаянию, но помнят о происхождении. А что «воспринимают» ИНС, как основа будущих систем ИИ, какова их «логика»? Насколько велико расхождение с нашей логикой и восприятием? Для нас они обычно черные ящики. В этой публикацию авторы пытаются найти ответ на этот вопрос, и приходят к выводу, что могут отличаться существенно. Чтобы такого непонимания возникало меньше, «восприятие» и «логика» ИИ должны быть «дружественны» восприятию и логике человека. Для этого нужно устранять несоответствия, двигаясь, вероятно, в этом направлении. В этом случае возможно выстраивание симбиотических отношений человека с таким ИИ, или он мог бы стать след. надстройкой мозга, как в свое время неокортекс стал надстройкой древнего рептильного мозга. Двигаться в направлениях в кот. двигалась эволюция, используя ее проверенные временем сценарии.
Я не вполне понимаю критерии вашего «создал/не создал».

Допустим я беру в качестве среды некий искусственный мир по аналогии с опытами Амосова. в нем есть еда, укрытия, опасности разной степени фатальности…

И на скорую руку накидываю RL-агента. Основа любой RL-системы — выработка стратегии действий на ближайшие несколько «ходов» вперед. За верные действия — награда, за неверные — штраф. Причем есть реальные награда/штраф — по факту действия, а есть планируемые (самим агентом). Система стремиться всегда выбрать стратегию с максимальной суммарной наградой. Из этого есть неочевидное следствие, что у системы есть оценка своей «жизни» на N ходов вперед.

Допустим, за достижение «комфорта», т.е. сытости и безопасности — награда. За голод, холод, опасность — штраф.

Соответственно — просчитывая варианты, система будет иметь стратегию на ближайшее время максимально положительным «балансом». Но при этом в процессе поиска наилучшего из путей — она просчитает множество вариантов, в том числе и весьма пессимистичных.

Я берусь утверждать, что если я добавлю в архитектуру такой системы два «полюса» — ну допустим, нейрона… А может даже один — со значением от -1 до +1… В общем в минус его будет уводить любой просчитываемый негатив (ситуация со штрафом), а в плюс — позитив (положительная ожидаемая награда) — этот «нейрон» будет показателем воплощением того, насколько страдает либо кайфует система! :)

В такой ситуации — я создал страдающий/кайфующий девайс или нет? ;)

Несколько важных моментов:

  • Объективные страдания, например — боль, голод в МОМЕНТЕ — не есть страдания как таковые. Высоко организованная система вполне способна не только переносить их без существенных издержек для психики, но и самостоятельно осознанно их провоцировать, а где-то даже и получать удовольствие! Настоящее страдание это боль, которую ты бы хотел избежать, но по всему выходит — не получится. Т.е. истинным издевательством будет поместить систему в такую среду, где все стратегии — плохие.
  • Догадываюсь, что вы скажете за «нейрон страдания» — мол это не настоящее страдание, а всего лишь его демонстрация. Но это не так. Я вполне могу сделать черную коробку, которая будет просто оценивать прохождение игры персонажем, которым она не управляет, но которому «сопереживает» — и она будет зажигать красный огонек, когда ее прогноз негативен, и зеленый — если позитивен. Это не демонстрация — это просто факт. Наличие четко верифицируемого признака страдания/удовольствия! ;) Добавление кучи внешних и внутренних атрибутов (внешних проявлений страха/печали или изменения поведения/ рискованности стратегии) — это как раз все наносное и не настоящее. Четкий признак — зеленая/красная, да/нет, счастье/скорбь — единственный критерий! Как именно будет системой ощущаться/восприниматься/переживаться этот объективный факт — вопрос как раз таки «квалиа».
  • Как я понимаю, вопрос даже не с двойным — а с тройным дном! ) Типа если признать, что система испытывает «страдание» при любом «штрафе», то RL можно представить как рассадник садистов, кайфующих от издевательств над бедными RL-агентами? ;)
В такой ситуации — я создал страдающий/кайфующий девайс или нет? ;)
Он тебе не ответит, т.к. сам не знает. По его идее ты должен разработать теорию и доказать её. При этом никаких критериев проверки, кроме изложенных выше, он не дает. Ага, такое вот ТЗ «сделай то, не знаю что, докажи, что это то, что я хотел».

Плюс, насколько помню предыдущие подобные темы, codecity немного антропоцентрист, поэтому подсунуть осьминога в банке (или отрезанное щупальце — нервная система у них децентрализована) не получится — не похоже на человеческий мозг, видите ли.
>>> По его идее ты должен разработать теорию и доказать её.

Хм. Ну так-то я разработал теорию и ее доказал (я считаю). )

Теперь его очередь доказать мне, что я не прав! Если он считает, что я не прав…
никаких критериев проверки

Критерий проверки — временное замещение реальных процессов ЦНС их искусственными аналогами. Желающий убедиться в правильности гипотезы должен «ощутить» доказательство. Но и, возможно, когда будет схема девайса — мы как бы интуитивно почувствуем, что примерно так оно и есть.
>>>Желающий убедиться в правильности гипотезы должен «ощутить» доказательство

Как нефиг делать! Втыкаем выход зеленого светодиода в центр удовольствия, красного — в центр боли…

>>>мы как бы интуитивно почувствуем

А «вы» — это кто? ) Я вот чувствую. Интуитивно.
когда будет схема девайса
Я выше привел пример осьминога. Сравнивать его ганглии с ЦНС бесполезно — вообще не похожи, сращивать с человеческим — тем более. Вот и скажи, осьминоги в твоей картине мира обладают квалиа или лишь биоавтоматы?
Критерий проверки — временное замещение реальных процессов ЦНС
Тебе ранее уже предлагали схему из лампочки и батарейки. Уверен, эта схема, подключенная к нужным отделам мозга, будет отлично вызывать у тебя ощущения наслаждения и страдания. ТЗ выполнено?

Nehc — и вот так постоянно, дает дырявое кривое ТЗ, потом начинается «это не то, это не так»… При этом свято уверен, что раз выполнение ТЗ зависит от желания его левой пятки, то он святой грааль философии нашел.
осьминоги в твоей картине мира обладают квалиа или лишь биоавтоматы

Могу сказать только о себе. Может быть даже не все люди обладают.

Тебе ранее уже предлагали схему из лампочки и батарейки

Читайте внимательнее. Временное замещение реальных процессов ЦНС. Т.е. отключаете часть мозга, лично ощущаете что после этого случилось. На время, на несколько секунд. Нужно научиться это делать. Далее, замещаете часть мозга искусственным аналогом (опять же на время, т.е. процесс должен быть обратимым). Примерно такое вижу доказательство, что процессы поняты и воспроизведены правильно.

и вот так постоянно, дает дырявое кривое ТЗ

Это не Т.З. Вот, как доказательство великой теоремы — не было Т.З. как именно доказать — как хочешь так и доказывай. Так и тут. Создай девайс и докажи, что он может испытывать страдания и к нему применимы вопросы нравственности — т.е. его нужно защищать от издевательств, к примеру.
Ну нет. Это ерунда, а не критерий! Замените фрагмент одной обученной сети — другой. Получится ерунда: сеть не будет работать. Полагаю в этом плане мозг — именно сеть. Да сильно распределенная, выдерживающая значительный «dropout», сохраняя функциональность (но все равно не на 100%), однако — целостная. Замена куска мозга чужим — не вариант.

Вы вполне можете увидеть некую зону в ML-агенте (если он на базе нейронки), которая активируется во всех случаях «неприятностей». Вы можете с известной долей допущения назвать эту зону «квалиа проблем», но пересадив этот кусок в иную сеть — вы никоем образом не добьетесь, что бы оная «поняла», как первая ощущает проблемы! вы только сломаете обе сети…

И тем не менее — вы сможете увидеть, и возможно даже как-то визуализировать то, как сеть ощущает «проблемы». Вернее в первом приблежении — чем/где. А уж потом, используя что-то вроде GAN — можно попробовать получить образ «квинтэссенции» проблемы.
Замена куска мозга чужим — не вариант

Замена с сохранением весов нейронов, связей и т.д. Причем замена временная, чтобы можно было гарантированно откатить все назад.

Для начала научиться на время отключать те или иные части мозга, чтобы интроспективно пронаблюдать за изменениями. Причем отключать точечно — нужна высокая точность.

Никто не говорит, что это просто.
Дело не в том, что это непросто…

Я не вижу, как это могло бы быть осуществлено в принципе! )

Любая сеть (даже искусственная, я уж не говорю — о биологических!) это система динамического равновесия, где все элементы по сути взаимосвязаны. Веса подстраиваются таким образом, что замена любого куска будет требовать новой перебалансировки, после чего никакая из исходных частей не останется прежней…

Не, можно взять обученную сеть, «зафризить» ей все входные слои, оторвать выходные и присобачить куда-то еще с дообучением. В принципе так во многих случаях и делают. НО! исходную сетку еще можно будет восстановить (т.к. ее не балансировали), но то, куда ее вставляли — после этого можно выкидывать — потому, что это полностью новое образование, пригодное для работы только с этой сетью. Другая будет бессмысленна.

я могу предположить, что… Ну допустим пересаживаемый кусок сети фризится. Система реципиент тоже каким-то образом фиксируется, а балансируется только некий промежуточный кусок — некий интерфейс. Но зачем?! Вы не получите того, чего хотите. Реципиент не будет ощущать поступающие из новой части паттерны так же, как донор — «интерфейс» будет преобразовывать это все во что-то новое!

Вы же понимаете — что в общем случае — нейросеть, это не только и не столько архитектура, а именно веса? Все эти квалиа, ощущения себя, страдание/наслаждение — все это принципиально зависит от того, как веса сложились. У двух абсолютно идентичных структурно/генетически мозга — не будет ни одного нейрона, с одинаковыми весами/функцией. Да грубые зоны/участки коры могут отвечать за плюс/минус «одни и те же» функции, но очень грубо! Зрительная кора — да, но не «квалиа котиков»!
Вы же понимаете — что в общем случае — нейросеть, это не только и не столько архитектура, а именно веса?

Нужно создавать копию участка с учетом веса всех нейронов данного участка. Никто не говорит что это просто. Может быть досаточно заменить 1 нейрон для неких проверок.

Если это не получится — искать другие способы.

Цель ясна: создать девайс, который страдает и наслаждается как человек (или хотя бы как животное с развитой ЦНС). Как создать и как доказать что оно на самом деле страдает — это вопрос исследований. Никто ведь не знал, как именно доказать Великую Теорему — однако доказательство нашли.

Сказать что страданий не существует в принципе, по этому девайс является не возможным — никто не может. Значит создать его можно, остается вопрос — как и как потом доказать что он реально страдает.
Я не вижу ни проблемы в создании такого девайса, ни смысла. )

Меня в какой-то степени изначально занимала постановка вопроса, как упражнение для ума, но… Вы не «приняли подачу», а повторяете одни и те же специфические сентенции, которые мне видятся не такими уж интересными.
Я не вижу ни проблемы в создании такого девайса, ни смысла. )

Девайс перевернет понятия о добре и зле, моральные и религиозные устои. А может быть покажет, что сознание не является частью нашего мира а протягивается через API, если живем в симуляции.

Да вообще ни разу! По причине отсутствия и принципиальной невозможности объективных критериев проверки.


Впрочем… так же возможно, что коробка с двумя диодами сделает все то о чем вы говорите, причем по той же причине: тут не нужна объективность — это вопрос веры. ;)

По причине отсутствия и принципиальной невозможности объективных критериев проверки.

Основа проверки — идентичность процессов, происходящим в мозгу человека в момент страдания/наслаждения. А уже в деталях — это вопрос исследований — Великую Теорему тоже сначала никто не знал как доказать.

так же возможно, что коробка с двумя диодами сделает все то о чем вы говорите, причем по той же причине: тут не нужна объективность — это вопрос веры.

Это вопрос исследований а не веры. То что коробка с двумя диодами не ощущает — доказать не сложно.
Основа проверки — идентичность процессов, происходящим в мозгу человека в момент страдания/наслаждения.


С чего бы?


Ну, во-первых, просто не существует двух людей с идентичными процессами: каждое сознание уникально.


Во-вторых, вы не привели ни одного обоснования, почему страдания существа принципиально иной природы — менее страдание, чем ваще!


То что коробка с двумя диодами не ощущает — доказать не сложно.


Докажите! ;) Мне просто даже интересен ход мыслей в ходе такого доказательства… Опять же: мы исходим из того, что вам известно внутреннее устройство девайса, или нет? И мы же исключаем вариант, когда коробка не содержит ничего, кросе диодов?

Ну, во-первых, просто не существует двух людей с идентичными процессами: каждое сознание уникально.

Идентичного в мире вообще ничего не существует — для этого и используется абстрагирование — выделить главное и понять суть.

Во-вторых, вы не привели ни одного обоснования, почему страдания существа принципиально иной природы — менее страдание, чем ваще!

Очевидно что не все когнитивные процессы вызывают ощутимое страдание. К примеру обучение может происходить без серьезных страданий, значит в системе, которая может только обучаться — не обязательно будет возможность запуска процессов, которые приводят к ощутимым страданиям.

Опять же: мы исходим из того, что вам известно внутреннее устройство девайса, или нет?

Конечно устройство должно быть известно — мы же не словоблудием занимаемся.

И мы же исключаем вариант, когда коробка не содержит ничего, кросе диодов?

Обычно приводят схему с двумя светодиодами — красным и зеленым. Уточните вашу схему.

Я делаю устройство, которое любит(кайфует с) свет и тепло, не любит (боится/страдает) от холода/темноты. Что бы добавить «остроты ощущений» — устройство не имеет энергонезависимой памяти и работает на солнечных батареях+какой-нибудь термопаре или что там еще может давать энергию с тепла… плюс аккумулятор, позволяющий какое-то ограниченное время протянуть без света/тепла. Утройство имеет сенсоры оптические, температурные, вибрации — не знаю что еще? Гироскоп? Не суть важно. Устройство имеет возможность собирать и обрабатывать информацию — имеет Память, имеет возможность строить прогноз. На будущее. Однако, весь этот функционал находится в энергозависимой памяти и как только энергия иссякнет — не только текущее состояние обнулится, но и программа исчезнет — устройство превратится в бессмысленную коробку. Аналог физической смерти. Так же у устройства есть два светодиода отражающих ее настроение — зеленый, символизирующий счастье, красный — страх, страдание, боль. Особенность работы устройства таково, что хоть в первом приближении оно реагирует без затей: зеленым диодом на свет и тепло, а красным на тьму и холод, но со временем, при наличии системы (или даже без оной — по рандому) — реакции становятся сложнее: устройство заметно грустит при приближении «ночи», хотя еще достаточно светло и батареи заряжаются. И наоборот радуется приближению «утра». Регулярно сменяющие друг друга интервалы со временем вызывают все меньшую интенсивность свечения диодов (а по их яркости мы измеряем уровень ощущения), а внезапные выбросы из установившегося порядка — наоборот переживаются ярко и интенсивно…


В конце эксперимента интервалы становятся все более хаотичными, интервалы тьмы дольше, и наконец наступает последняя долгая ночь. Устройство горит красным, но не задолго до окончательной разрядки вдруг загорается зеленым. После чего выключается.

Вам всего лишь нужно понять — актер, который корчится от боли — на самом деле боли не испытывает. Есть разница — создать видимость боли в голове наблюдателя или на самом деле испытать боль. Все просто.

Отнюдь!


Во-первых, я ранее уже говорил, что говорить о разнице между ощущаемым и демонстрируемым имеет смысл только тогда, когда эта разница в принципе возможна! Актер может не испытывать страданий, но их демонстрировать — а сайт и описываемое устройство: нет. Их проявляемые признаки связаны с внутренним состоянием напрямую и тут нет и не может быть никакой фальши. Если вы не считаете это болью/страданием — вы должны как-то более формально аргументировать почему нет.


Во-вторых, хороший актер по системе Станиславского «вживается в роль». Это значит, он создает внутри себя некую виртуальную личность с определенными жизненными обстоятельствами и на время передает в пользование этой личности значительную часть своей ЦНС. Страдания этой личности вполне реальны по всем критериям, даже тем, что вы заявляли ранее! ;) Тот факт, что личность существует временно и в чужом теле, а так же была создана исключительно для того, что бы страдать (и своим страданием развлечь публику) — выводит ее из под дискуссии о правомерности страдания, однако… еще раз: ее страдания такие же настоящие, как ваши. Да — страдает не сам актер, страдает образ. Но образ страдает реально! В этом суть системы Станиславского.


В-третьих, мы животные социальные, а потому в состав нашей ЦНС входят так называемые зеркальные нейроны, обеспечивающие сопереживание, т.е. эмпатию. Хороший актер заставляет и публику проживать страдания своей роли. Многие фильмы не рекомендуются возбудимым людям, людям с слабым сердцем и прочая — не просто так.


Таким образом, я утверждаю, что во всех приведенных случаях: сайта, коробочки с диодами, хорошего актера — страдания реальны. Можно попробовать говорить об их мере в связи с упрощением системы (а все эти случаи в той или иной мере — упрощения, вплоть до вырожденного с сайтом), но нельзя говорить, что и страдания никакого нет! ;)


Парируйте!

Парируйте!

Словоблудие и демагогия мало интересны.

Про устройство, которое после нажатия на одну кнопку плачет, а после нажатия на другую смеется — доказывается легко. Это устройство не может отличить плач от смеха — в нем даже микрофона нет. Разница только в голове наблюдателя — с позиции устройства эти действия целиком симметричны. Но и так понятно, что больно такому устройству не будет.

Настоящим доказательством будет идентичность процессов в ЦНС и процессов в устройстве. И это имеет серьезные последствия. Но многие думают, что достаточно соорудить сложную нейросеть — но это не факт, возможно задействованы некие квантовые процессы.
Словоблудие и демагогия мало интересны.

Согласен. Я бы сказал тоже самое вам, но обмен такого рода «любезностями» контрпродуктивен.


Это устройство не может отличить плач от смеха...

Господи, а это тут причем? Вы серьезно судите о высших материях по наличию/отсутствию рецепторов?


Допустим, мы в симуляции. Вы представляете собой черную коробку с двумя диодами — красным и зеленым. В ней — ваше сознание, которое собирает вашу реальность на основе каких-то внешних сигналов… возможно даже хаотичных. Ну или — вполне упорядоченных, вроде наших виртуальных реальностей.


Ваше страдание в «реальном мире» — красный диод, Наслаждение — зеленый.


И что? У вас вообще нет сенсоров! Все? Ваше страдание — пшик?

Господи, а это тут причем? Вы серьезно судите о высших материях по наличию/отсутствию рецепторов?

Дело не в рецепторах — для системы нет разницы между звуком плача и звуком наслаждения. Если бы хотя бы какая-то ассиметрия была — можно было бы дальше разивать мысль.

Ваше страдание в «реальном мире» — красный диод, Наслаждение — зеленый.

В высшем мире страдание и наслаждение могут быть действительно чем-то простым и базовым. Но исходит ли страдание из высшего мира или собрано на элементах нашего мира — и предстоит узнать, исследуя процессы наслаждения и страдания в ЦНС.
исследуя процессы наслаждения и страдания в ЦНС.

Ну… я предпочитаю исследовать процессы мышления. Страдания/наслаждения мне интересны не более, чем иные аспекты разума.


На мой взгляд ваше увлечение ими чрезмерно.

я предпочитаю исследовать процессы мышления

Процессы мышления не затрагивают вопросов бытия: нравственности, религии, сохранения существования в другой форме. Нам важно сохранить то, что умеет страдать и наслаждаться, а не то, что умеет думать и не имеет отношения к вашему наслаждению и желанию наслаждаться.

Страдания/наслаждения мне интересны не более, чем иные аспекты разума.

Что бы вы выбрали:

1. Сохранить в вас ту часть, которая умеет наслаждаться и страдать — перенести ее в другой формат существования. Но при этом вы потеряете память, то есть просто как бы забудете все что знали. Знания потом сможете набрать любые — какие только захотите в мгновение ока.

2. Сохранить вашу память и процессы мышления, но пр этом никакой способности наслаждаться или страдать не сохранять — то есть просто алгоритмически сможете отвечать на вопросы и делать некие выводы, которые для внешнего наблюдателя будут такими же, как у вас оригинального.
>>>Процессы мышления не затрагивают вопросов бытия.

Еще как затрагивают! Все эти категории, которые вы перечислили — это категории ума.

>>>Нам важно сохранить то, что умеет страдать и наслаждаться

Кому вам? ;) Мне — нет. НЕ интересно вообще.

>>>Что бы вы выбрали:

Вопрос интересный. Во-первых, я абсолютно уверен, что наслаждение/страдание (если только вы под ними не имеете ввиду банальные физические ощущения) — процессы мышления. Я даже имею некоторую концепцию на этот счет, но это отдельная тема. Поэтому если под «памятью и процессами мышления» вы имеете введу структуру разума, которая формируется под воздействием жизненного опыта + собственно опыт — то именно это я считаю «личностью», «собой» и естественно я предпочел бы сохранить ее. Все то, что меня радует и огорчает останется при мне. ;) Бесчувственным алгоритмом я при этом не стану.

А «сохранить в вас ту часть, которая умеет наслаждаться и страдать» — я вообще не понимаю, где здесь «я». Любая свинья умеет наслаждаться и конечно страдать — это не уникальная и не интересная часть, в отличии от личности. Уж что-что а такого рода «ощущалка» не имеет в моих глазах никакой ценности.
категории ума

А что, умение страдать и наслаждаться так уж необходимо для доказательства теорем?

Мне — нет. НЕ интересно вообще

А что такое ваше «Я», как часть, умеющая страдать и наслаждаться? Память вы можете потерять из-за болезни — при этом вы не перестанете быть собой.

(если только вы под ними не имеете ввиду банальные физические ощущения) — процессы мышления

Физические ощущения — не банальны. В них вся и суть. И их суть — величайшая тайна и загадка, которая отделяет субъект от объекта. А запуск, как вы сказали, «физических ощущений» наслаждения посредством размышлений — это надстройка уже, в ней интересного мало.

собственно опыт — то именно это я считаю «личностью», «собой» и естественно я предпочел бы сохранить ее

А если при этом не будет той части, которая наслаждается и страдает? Просто тупо автомат, нейросетка обученная — которая тупо делает ту или иную задачу, не испытывая ни радости ни горя.

Любая свинья умеет наслаждаться и конечно страдать — это не уникальная и не интересная часть

Умение страдать — наделяет свинью некими правами — ее нельзя истязать, издеваться над ней, даже если вы ее хозяин.

А вот умный комп, который умеет решать сложные задачи, доказывать теоремы — обладает нулевыми правами — он просто собственность.
>>>А что, умение страдать и наслаждаться так уж необходимо для доказательства теорем?

При чем тут теоремы? «Категории ума» — это значит, что у высокоорганизованной системы есть поводы для страданий/удовольствий значительно более «продвинутые», чем физические ощущения. Я могу получать удовольствие от общения с вами, и страдать от несправедливости мироздания. Это все поисходит внутри моего сознания, не затрагивая область физических ощущений.

>>>> Физические ощущения — не банальны. В них вся и суть.

Смешно. ) Физические ощущения — не более чем сенсоры биологического организма. Да, признаю — по совокупности биологические системы имеют сенсорику более богатую, чем мы пока способны воспроизвести в «железе», но…

>>>И их суть — величайшая тайна и загадка, которая отделяет субъект от объекта.

Ну тогда предлагаю обсудить оптические сенсоры в камерах смартфонов разных флагманских моделей — там же такое разнообразие и уникальность! )))))))

>>>А если при этом не будет той части, которая наслаждается и страдает?

Физически? Да и хрен с ней! ))) Прикрутим потом какую-нить железячную сенсорику — и прокатит на первое время.

>>>Просто тупо автомат, нейросетка обученная — которая тупо делает ту или иную задачу, не испытывая ни радости ни горя.

Да с чего бы! Радость и горе испытывает разум, а не тело! Невозможно в общем случае воссоздать разум, не воссоздав его идеалы, критерии добра и зла, нравственный ориентиры и прочее!

>>>А вот умный комп, который умеет решать сложные задачи, доказывать теоремы — обладает нулевыми правами — он просто собственность.

Потому, что доказывание теорем — несколько не то, что я понимаю под мышлением. А если у меня будет мыслящий комп — уж о его благополучии я постараюсь позаботится максимально возможным образом!

Ну и потом… Своеобразная человеческая логика: права свиньи. Нельзя издеваться — можно просто «гуманно и милосердно» умертвить и пустить на ветчину… ( Все-таки со своими компами люди обходятся куда как гуманнее…

У меня вообще ощущение, что если создать девайс, испытывающий страдание — то найдется большое число людей, которые будут с удовольствием это страдание причинять! А вот на законодательную защиту я надеюсь не очень…
есть поводы для страданий/удовольствий значительно более «продвинутые», чем физические ощущения

Суть страдания — центр боли. А уже откуда идет сигнал — с реалтайм-сенсора или из глубокой памяти душевных терзаний — не важно. Вся суть, вся загадка мироздания — в центре боли, грубо говоря.

Физические ощущения — не более чем сенсоры биологического организма

Не об этом. Сенсор не страдает — страдает ЦНС, когда сигнал от сенсора или от глубокой памяти попадает в центр боли.

Невозможно в общем случае воссоздать разум, не воссоздав его идеалы, критерии добра и зла, нравственный ориентиры и прочее!

Почему же? Разум может знать, т.е. взять за аксиому что есть добро а что зло, но при этом сам никаких страданий не испытывать. Ответить на вопрос сможет правильно, рассуждать сможет — а испытать боли и наслаждения — не сможет.

Потому, что доказывание теорем — несколько не то, что я понимаю под мышлением

А что же?

Нельзя издеваться — можно просто «гуманно и милосердно» умертвить и пустить на ветчину…

Мы к этому пришли. Считается что умерштвление — это просто бесконечный сон без сновидений, а во сне ничего плохого нет. В страданиях есть.

У меня вообще ощущение, что если создать девайс, испытывающий страдание

Вот мы и выявили ваше настоящее мнение — вы не считаете, что описанный вами сайт испытывает страдание.
>>> Вот мы и выявили ваше настоящее мнение — вы не считаете, что описанный вами сайт испытывает страдание.

Это как? ))))))))) Я даже близко не понимаю как вы это вывели…

Ну давайте я расширю мысль: если распечатать листок с плачущем/улыбающимся смайликом, то часть людей положит его плачущей стороной вверх. Если сделать сайт, который страдает от нажатия кнопки — именно эту кнопку многие и будут жать.

Что касается потока сознания по центру боли… Ну это даже на гипотезу не тянет: так ряд ни на чем не основанных спорных утверждений.

А ключевую фразу про свинью Вы решили пропустить...

Я не вполне понимаю критерии вашего «создал/не создал».

На данный момент точных критериев мы не знаем. Понятно что вопрос исследовательский — нужно исследовать все процессы в ЦНС, которые происходят при ощущении страдания, выделить из них главные и т.д. Когда будет доказательство, что девайс реально работает и не упущено ничего важного — можно будет заняться проверкой данного доказательства, найти в нем ошибки или неточности.

Основа — это изучение реальных процессов ЦНС человека, моделирование, замещение и т.д. Т.е. данная задача не сколько философская, сколько практическая.

Сейчас можно точно сказать, что процесс обучения с наградой/штрафом — не обязательно вызывает квалиа наслаждения/страдания даже у человека.
Давай с другой стороны зайдем… ) Раз уж пошла такая тема.

Что такое вообще квалиа? В моем понимании это внутренне представление чего либо. Т.е. отражение в модели агента некоего феномена.

В принципе даже квалиа «яблоко» заслуживает внимания, но обычно интереснее изучать что есть «Я», «красота», «юмор», «здравый смысл», «страдание»… и тп.

Любая система, претендующая на звание «интеллектуальной» имеет некое внутреннее представление для всего множества феноменов (не обязательно внешних — можно и внутренних!), которыми она оперирует.

Собственно оперирует она именно квалиа, а не самими феноменами!

Простейшим случаем квалиа является, например эмбендинг — значение предпоследнего слоя сети. Любой вход такой сети имеет свое отражение на этот слой. Какие-то входы однозначно опознаются сетью, какие-то нет — но эмбендинг есть у всех.

Для NLP сетей — часто можно выразить некий «эмбендинг» не только отдельных элементов, но и их довольно значительных совокупностей, ну т.е. не только слов и словосочетаний, но предложений и даже текста. Т.е. мы имеем некое невыразимое(словами), но вполне конкретное, измеримое внутреннее представление, которое соответствует некоему тексту.

я утверждаю, что в основе потенциального ИИ подобное представление будет для любого значимого феномена — в том числе для ощущения собственной личности, красоты, страдания и прочего. Т.е. это будет некий вектор в пространстве понятий/ощущений, уникальный для конкретного образа/совокупности образов/ощущений и прочая… Он будет абсолютно непонятен никому вне агента, но для агента будет абсолютно объективен/реален.
В моем понимании это внутренне представление чего либо. Т.е. отражение в модели агента некоего феномена.

Знаете что подумал? Что этот вопрос не играет особой роли, пока квалиа не становится страданием и наслаждением, т.е. пока не достигает неких критических значений, если можно так сказать. Из этого появляется понятие добра и зла. Бездушная железка вдруг становится способной к страданию, а значит уже нуждается в защите, потенциально способна обрести некие права по защите себя от необоснованных страданий.

А вот то что та или иная железка начала испытывать страдания — нужно доказать, а сделать это не так просто. Вы можете думать одно, но на деле все будет иначе.
Что такое вообще квалиа? В моем понимании это внутренне представление чего либо. Т.е. отражение в модели агента некоего феномена.
В принципе даже квалиа «яблоко» заслуживает внимания

Вы неправильно понимаете, что такое "квалиа". "Яблоко" это не квалиа, это логическая абстракция, у нее даже термин свой есть — яблоко.
Квалиа это физически ощущаемые ощущения, они появляются до любых абстракций. Абстракции вы можете описать другому человеку другими абстракциями (терминами), квалиа так описать нельзя. Нельзя описать человеку, который никогда не видел красный цвет, что такое красный цвет.

Спасибо, кэп! :)

Ничего не понятно. В чем проблема?

Не грузитесь особенно, это стандартный прикол codecity) он всем это техзадание выписывает, кто занимается проблемами сознания, мышления, разума, интеллекта, и их моделированием. Это называется проблемой создания искусственного квалиа.

codecity
Возможно вас заинтересует некоторая литература по этой проблематике.
Detecting Qualia in Natural and Artificial Agents
In Search of Computational Correlates of Artificial Qualia
On the practical nature of artificial qualia
Detecting Qualia
Qualia: The Geometry of Integrated Information
The meta-problem and the transfer of knowledge between theories of consciousness: a software engineer's take

Впрочем, как специалист по этому вопросу, вы могли быть знакомы с ней.
На мой взгляд квалия это философский аналог эфира физики 19 века в области психических явлений, на нее можно валить все, что неизвестно и непонятно)
Не грузитесь особенно, это стандартный прикол codecity

Это не прикол — все серьезно. Данное задание переводит вопрос ТПС из неясного философствования в практическую плоскость.

он всем это техзадание выписывает, кто занимается проблемами сознания

Рад что это заметили. Кто-то придумал концепцию философского зомби. Мне удобнее использовать концепцию анти-зомби — девайс, который все ощущает — но никак не проявляет данные ощущения во внешнем мире.

Возможно вас заинтересует некоторая литература

Кое что из этого уже смотрел, будет время — еще гляну. Хотя общая ситуация по теме мне известна — пока никаких подвижек.
Данное задание переводит вопрос ТПС из неясного философствования в практическую плоскость.
Квалия является избыточным понятием. Достаточно понятия ощущения, ощущений различной модальности. Для себя вижу в нем смысл только, как некоторое обобщение ощущений на неспецифические раздражители. Цвет мы видим не только в ответ на стимуляцию глаз светом, но и во сне, при галлюцинациях, при синестезии, в воображении. Но доп. понимания это не дает. Это субъективное состояние, но оно меряется, как и любая физическая величина. То же болевое ощущение. Эта мера описывается основным психофизическим закон Вебера-Фехнера. Для чувства численности удалось выявить нейронный коррелят этого состояния, и промоделировать с помощью ИНС, со структурой сети подобной структуре вентрального пути зрит. системы. Активность нейронов и в мозге, и в моделирующей сети подчиняются закону В-Ф. Т.е. для чувства численности изучена вся цепочка от стимуляции, нейронного коррелята в мозге, до субъективного состояния. Само чувство численности также подчиняется закону В-Ф. Сейчас аналогичные исследования по всей цепочке, и ее моделированию в ИНС, проводятся для ощущения цвета.
Квалия является избыточным понятием

Избыточным или нет — можно долго философствовать. А вот когда есть задание — создать девайс, способный ощущать наслаждение и страдание — тут либо мы знаем как его сделать либо не знаем. Философсвовать уже негде.

Как доказать, что девайс реально ощущает — не знаю. Это как доказательство Великой Теоремы — никто не знал как доказать, но все же доказательство нашли. Думаю что, в первую очередь, важна идентичность процессов в ЦНС и процессов в девайсе. Или даже кратковременное замещение отдельных частей мозга на искусственные аналоги.

Последствия для общества — сложно представить.

Во-первых, сей девайс уже будет подлежать защите от издевательств, т.к. способен их испытать. А значит даже если кто-то тайно у себя дома соберет данный девайс или просто запустит процессы страдания — уже нарушит закон. Причем силу страданий уже можно будет выразить численно — а чем выше страдания — тем хуже статья.

Во-вторых, получится что сей девайс имеет душу. А это уже влияет на практически все религии, т.к. в той или иной степени вера связана с понятием бессмертной субстанции, которая сохраняется после смерти.
Избыточным или нет — можно долго философствовать.
В действительности мы не знаем даже, что такое жизнь, не говоря уже о сознании, и составляющих его квалиа) Можем давать различные физические, химические, функциональные, и тд определения, но они кажутся всегда неполными. Чего-то не хватает. Почему? Потому что мы предвзято (восприятие и отношение смещены) относимся к жизни, разуму и многому другому. Сторонник когнитивных способностей человека определяемых когнитивным ядром, кот. являются врожденными. В философском плане это нативистский подход к когнитивным способностям человека. В когнитивном ядре исходно присутствуют эволюционно выработанные, полезные, с точки зрения выживания в условиях Земли, способности. В том числе интуитивные ощущения живого, ощущение разумности поведения, наряду, с более простыми ощущениями — цветами, звуком, численностью, и тд. Дети от рождения чувствительны ко всему этому, т.к. это критически важно для выживания, в дальнейшем, по мере обучения и получения опыта, эти примитивные чувства развиваются в количественном отношении. Это опять связано с законом Вебера-Фехнера. Хотя он аппроксимируется логарифмической зависимостью, в действительности он дискретный, пороговый, есть нижний порог чувствительности, дифференциальные, верхний, за пределами кот. ощущения обычно становятся болезненными. Со временем, по мере взросления, число порогов увеличивается, мы как-бы более точно воспринимаем мир, производя его своеобразную биологическую «оцифровку». Это впрямую показано исследованиями на динамике чувства численности с возрастом, как наиболее хорошо поддающемуся в экспериментальных исследованиях измерениям (точнее оценке) чувству. Чем лучше развито чувство численности, тем лучше у человека способности к математике. Но с возрастом, к старости, пороги опять сливаются, чувствительность, как минимальная, так и дифференциальная по всей шкале падает. Восприятие становится более грубым, «оцифровка» мира теряет точность. С некоторыми нюансами это относится ко всем чувствам.

Чувство живого проявляется в том, что мы с легкостью одушевляем предметы и процессы, например, последовательность кадров в мультике, при их просмотре на экране. Поведение робота со сложными, но детерминированными программами поведения наделяем разумностью, что связано с теорий ума.
Что такое когнитивное ядро можно получить представление в этой статье на Плато, если не в курсе. По составу ядра ведутся дискуссии, статья несколько устарела по фактическим данным, исследования в этом направлении ведутся весьма интенсивные.
В действительности мы не знаем даже, что такое жизнь, не говоря уже о сознании, и составляющих его квалиа). Можем давать различные физические, химические, функциональные, и тд определения, но они кажутся всегда неполными...

Дело не в определениях. Чтобы уйти от философии, словоблудия и пространных бесплодных рассуждений — мной была придумана конкретная задача — создать девайс, который испытывает наслаждение и страдание как человек или, допустим, как собака.

Пока нет ни одного человека, который готов заявить что задачу выполнил. Ни одного. Тут нет места философии — мы имеем результат, что задача есть а решения нет.

Создатель девайса так же должен доказать, что девайс действительно страдает, что повторена суть процессов страдания существа с развитой ЦНС. Далее — придется менять УК — добавлять статью, которая запрещает вызывать страдания данного девайса, ведь эти страдания такие же как у высших животных — разницы нет.

Пока имеем четкое нет: девайс не создан, никто не заявил, что это смог сделать.
Городок в западно-американской степи. Салун. За столом сидят два ковбоя, местный и приезжий, и пьют виски. Вдруг по улице кто-то проносится на огромной скорости, паля во все стороны из револьверов. В салуне никто и ухом не ведёт. Приезжий местному:
— Билли?
— Да, Гарри?
— Что это было, Билли?
— Это был Неуловимый Джо, Гарри.
— А почему его зовут Неуловимым Джо, Билли?
— Потому что его никто ещё не поймал, Гарри.
— А почему его никто ещё не поймал, Билли?
— Потому что он нахрен никому не нужен, Гарри.
Дело не в определениях. Чтобы уйти от философии, словоблудия и пространных бесплодных рассуждений — мной была придумана конкретная задача
Хорошо… чтобы уйти от философии вам более простое, чем устройство с искусственным квалиа, техзадание. Создайте устройство, кот. вело бы себя, как живое существо. И мы не усомнились в нем, что оно действительно живое, и создатель должен доказать, что оно живое. Насколько мне известно никто такого устройства пока еще не создал. Придумаете, можно подумать над вашим, более сложным заданием)
Создайте устройство, кот. вело бы себя, как живое существо.

Это не проще. Для создания полностью искусственного живого организма — нужна наносборка.
Это не проще. Для создания полностью искусственного живого организма — нужна наносборка.
Тогда не вижу причин того, «чтобы уйти от философии», тем более научного анализа, чтобы понять проблему. А не наводить мистический туман)

Жизнь, и в еще большей степени сознание, многоуровневые информационные феномены. Если понимать это, то задачи их искусственного повторения находят вполне удовлетворительные решения.
Создание искусственной жизни загадки не представляет — все упирается в наноассемблер. Хотим мы или нет — только кирпичики нашего мира не устаревают — атомы и молекулы. И только из них можно собрать конструкцию, которая потом сможет копировать саму себя, взаимодействуя с окружающей средой.

Для повторения процессов ЦНС наноассемблер не нужен. Большинство считают, что можно все воссоздать даже на классическом компьютере. Вот тут и загадка — действительно ли это так и если так — то каков алгорим минимального наслаждения и страдания.
Изучение жизни как таковой — проблема, достойная того, что бы ей заниматься. Согласен. Как и изучение феномена сознания.

Феномен же страдания/наслаждения мне пока кажется высосанным из пальца, хотя и в некоторых аспектах занимательным… Впрочем дискуссия вышла интересной! )
или просто модель. ;)

Что бы изучать процессы, происходящие в живых организмах, не обязательно их полностью воссоздавать. Нужна модель, достаточной степени приближения.
Модель — смотря в каком приближении. В простейшем случае — игра «жизнь». А вот для моделирования процессов жизни на уровне атомов — мощностей пока не хватает, задача фолдинга белка слишком затратна.
Между простейшим и буквальным — есть еще бесконечное множество уровней абстракции
Хм, интересно… Но как-то чуть более поверхностно, чем я ожидал. ;) Хотя… Если вопрос, что называется, с подвохом, то не так уж и поверхностно!

Ну давайте определимся с терминологией. Страдание и наслаждение в общем случае (применительно к достаточно высокоорганизованным существам, включая человека) — это работа «дофаминового контура» — системы мотивации/поощрения, ответственной за научение. Мы избегаем боли и стремимся к удовольствиям на примитивных уровнях, но и на довольно высоких уровнях абстракции эта система вполне дееспособна: если что-то идет не так мы вполне ощутимо «страдаем», и получаем вполне реальное удовольствие от решения задач и достижения поставленных целей.

Любая RL-система (и даже в какой-то мере обычная тренировка с обратным распространением ошибки, хотя...), когда вы награждаете за правильный ответ/действие и штрафуете за неправильный — аналог такого контура. Страдает ли при этом нейросеть? ;)

Собственно простой ответ на этот вопрос: да. Ну потому, что она демонстрирует в некотором роде «интеллектуальное» поведение направленное на то, что бы избегать того, что приносит страдание и наоборот — стремится к тому, что приносит награду.

Более сложный ответ (который, я надеюсь, вы подразумевали) — зависит от того, имеется ли в системе «квалиа» страдания/наслаждения. Т.е. если система стремиться к чему-то/от чего-то по дефолту, «неосознанно» (ну т.е. она «не знает, что она стремиться»), если это часть архитектуры вне «модели мира» — это одно. Если же в системе есть возможность моделировать конкретный негативный сценарий и фактически она способна «проживать» собственную гибель/страдание в воображении…

В общем, если искусственная система способна испытывать некую форму страдания от воображаемого негативного сценария — это по факту и есть «квалиа» боли. И система будет не просто стараться избегать боли буквально (что есть довольно-таки низкоуровневый процесс), но и квалиа боли.

В общем случае не вижу проблемы сделать страдающую/наслаждающуюся систему, на самом деле… Другой вопрос — нужно ли это?

Кстати в рамках концепции Амосова похоже действительно нет проблемы ТПС, поскольку она строится на моделировании из элементов, каждый из которых представляет собой некий внешний или внутренний феномен… Таким образом как бы любое «квалиа» там просто есть в виде i-модели!
вы награждаете за правильный ответ/действие и штрафуете за неправильный — аналог такого контура. Страдает ли при этом нейросеть? ;)

Точно возможен вариант, когда не страдает, но обучается. К примеру, когда я изучаю что-то и прохожу тесты — неправильный ответ не вызывает у меня страдания — наоборот с интересом смотрю в чем был не прав. Но выводы делаю.

Т.е. одно лишь обучение с обратной связью — точно не достаточно для возникновения страдания и наслаждения.

В общем, если искусственная система способна испытывать некую форму страдания от воображаемого негативного сценария — это по факту и есть «квалиа» боли.

Вот задание и состоит в этом — создать систему, которая сможет испытать боль.

Другой вопрос — нужно ли это?

Нужно, это ключевой вопрос — это и есть смысл. Остальное не так интересно.
>>>неправильный ответ не вызывает у меня страдания

Вызывает… ;) Ну или скажем так — если вы понимаете, что и не могли знать этого — то это легкое раздражение, от того, что ваша интуиция не столь хороша, как хотелось бы. Если же это ошибка в том, что вы «могли бы и догадаться» — досада будет заметнее. И так далее…

Степень и мера «страдания» — вещь относительная.

Я все равно не понимаю проблемы создать страдающую систему! ) Я выше описал свою версию, если вы не согласны, что это решение — то нужно аргументированное обоснование, почему собственно нет.

>>> Вот задание и состоит в этом — создать систему, которая сможет испытать боль.

В чем сложность-то? ;) Давай те с азов: сайт, который при нажатии на одну кнопку условно «орет от боли!», а на вторую — млеет от удовольствия почему не проходит?
если вы понимаете, что и не могли знать этого — то это легкое раздражение, от того, что ваша интуиция не столь хороша, как хотелось бы

Зависит от вашего отношения — точно что нет обязательности страдания. Если это экзамен и результат важен для ваших целей — могут быть страдания. Если просто по приколу — обучение произойдет вообще без страданий. Т.е. есть что-то еще, может и связанное с системой обратной связи при обучении, но не являющееся ей.

Давай те с азов: сайт, который при нажатии на одну кнопку условно «орет от боли!», а на вторую — млеет от удовольствия почему не проходит?

По той же причине, по которой не подходит кричащий от боли актер. Он просто симулирует боль — на самом деле ее не испытывая. Важно внутреннее ощущение а не внешнее проявление.
не правда.

Актер — симулирует, потому, что его внешние проявления не соответствуют внутренним. У него есть и те и те, и одни объективно не соответствуют другим.

У сайта есть внутренне представление боли/счастья и их внешние проявления — соответствуют этим внутренним состояниям.

Сайт абсолютно искренен в своих проявлениях! )
У сайта есть внутренне представление боли/счастья и их внешние проявления — соответствуют этим внутренним состояниям.

Эта иллюзия возникает лишь в голове наблюдателя — сам же сайт не знает где боль а где удовольствие. Для него они симметричны.
Как это сайт не знает? У сайта есть внутренняя переменная, которая определяет его «эмоцию». Она полностью скоррелирована соответствующей кнопке, но это не одно и то же. Т.е. нажатие кнопки вызывает определенный внутренний отклик.

Вы не понимаете одну вещь: упрощение концепции не делает ее ошибочной! То, что устройство такого сайта примитивно — не означает, что он не является в достаточной мере точной моделью! Что бы доказать, что не является, нужны аргументация, опровержение. Пока вы их не привели (хотя конечно же существуют парадигмы в рамках которых будет не достаточно такая простой модели).

Т.е. «сам же сайт не знает где боль а где удовольствие. Для него они симметричны.» — не аргумент. Сайт «знает» и «различает» эти вещи. А на счет симметричности — в общем случае у вас тоже страдания и наслаждения вызывают вещи противоположные и это два «полюса» вашего эмоционального магнита.
У сайта есть внутренняя переменная, которая определяет его «эмоцию».

Подобрые системы легко опровергаются — симметричность. Переменная для страдания ничем не отличается для системы от переменной наслаждения. Что такое математический знак — система не знает.

Чуть сложнее с системами на нейросетевых алгоритмах и системах с обратной связью — но для всего есть убедительное доказательство, что ни в какой мере данные системы не способны ощутить наслаждение и страдание.

Что бы доказать, что не является, нужны аргументация, опровержение.

Для всех приведенных систем у меня есть доказательство, что они не способны ощутить наслаждение страдание.

Сайт «знает» и «различает» эти вещи.

Во-первых, прекратите говорить «сайт». О концепции нужно рассуждать в минимальном варианте, чтобы осталась сама суть. А вы сюда притягиваете Web-сервер, канал связи, HTTP-протокол и браузер клиента. Зачем?

Во-вторых, почему для девайса с 2 кнопками один звук плохо а другой хорошо, если он ничего не слышит? Они равнозначны — звук слышит только человек.
>>>Подобные системы легко опровергаются — симметричность. Переменная для страдания ничем не отличается для системы от переменной наслаждения. Что такое математический знак — система не знает.

Я утверждаю, что у вас все абсолютно тоже самое: вы ощущаете страдание и наслаждение симметрично и отличаются они только знаком. И вы тоже ничего не можете сказать об этом «знаке».

>>> Для всех приведенных систем у меня есть доказательство, что они не способны ощутить наслаждение страдание.

Ну… Все может быть. ;) Но так как вы не привели никаких доказательств — я вполне имею право считать, что таковых у вас нет. Что у вас есть, так это некая убежденность, что ваши страдания чем-то отличаются от страдания сайта. ;) Это нормально. Людям свойственно переоценивать свой ОГВМ.

>>>Во-первых, прекратите говорить «сайт».

Ну, ну ну… Не нужно мне указывать, да еще в подобном тоне. ;) Мы же с вами интеллигентные люди! Я говорю сайт, потому, что на нажатие кнопки реагирует сайт, а не что-то еще — не веб-страница (которая текст) не броузер. Сайт.

>>> А вы сюда притягиваете Web-сервер, канал связи, HTTP-протокол и браузер клиента. Зачем?

Это притягиваете вы, не я. В моих построениях это все не существенно и за скобками.

>>>Во-вторых, почему для девайса с 2 кнопками один звук плохо а другой хорошо, если он ничего не слышит?

Какой звук, вы вообще сейчас о чем? В протоколе эксперимента звуков нет. Для сайта плохо, когда вы жмете одну кнопку, и хорошо — когда другую. Остальное не существенно.
вы ощущаете страдание и наслаждение симметрично и отличаются они только знаком

Тогда бы не было добра и зла. Страдания я не хочу а наслаждения хочу — уже асимметрия. Причинение мне страданий необоснованных — есть зло. Для девайса с двумя кнопками — ничего этого нет.

Чтобы у девайса возникла асимметрия — вам нужно завязать нажатие кнопки «боль» на, к примеру, разрушение его корпуса (были и такие варианты). Но все легко опровергается — уже целый список из примерно 15 схем разных девайсов, которые якобы могут ощутить наслаждение и страдание — но все это пустое.
Не вполне корректно… Нужно тогда поднимать вопрос — уместно ли понятие «хочу/не хочу» (т.е. некое стремление к определенному результату), при условии, что субъект не является актором — т.е. не может действовать/влиять на ситуацию. А это вопрос непростой…

Если бы коробка/сайт имели такую возможность — можно было бы реализовать стремления вовсе без разрушений: сайт мог бы пытаться оттащить кнопку страдания от курсора мыши, а кнопку наслаждения — наоборот подсунуть. ;) Это было бы проявлением вашей асимметрии хочу/не хочу?

При этом вы же не будете спорить, что если вас полностью обездвижить, но не лишить сенсорики — вы все равно будете страдать/наслаждаться, не смотря на отсутствие возможности повлиять на ситуацию. И соответственно сохраните некую, ничем не диагностируемую возможность «не хотеть»…

Собственно именно эту проблему я вам демонстрировал в эксперименте с коробкой с диодами: Она, не являясь актором, тем не менее формировала некий прогноз, и испытывала негатив не непосредственно в момент «страданий», но и когда прогноз обещал их в будущем, т.е. она их «не хотела» и страдала от того, что они все-таки вероятны. Прям как вы. )

>>> Но все легко опровергается

Да ничего не опровергается… Т.е. оно может и опровергается, но не тобой. ;) Ты только говоришь, что это все есть, но даже с сайтом все что у тебя есть — внутренняя уверенность в том, что «это не то». Может даже оно и правда, но что бы продвигаться по пути познания — мало уверенности! Нужно выводить факты: если что-то не демонстрирует чего-то, то нужно то почему именно.
Дело в том, что вы и сами прекрасно понимаете, что ваш сайт никаких страданий не испытывает. Вам просто интересно поспорить — типа в этих вещах нет точных определений, значит типа доказать ничего не возможно.

Если вы считаете, что сайт может испытывать страдания — то почему не боретесь за то, чтобы защитить его от страданий? Все потому что вам интересна лишь демагогия — мне не интересна.

Если будет у вас реальная схема, которую вы действительно (не ради демагогии) считаете испытывающей страдания и наслаждение — тогда интересно будет рассмотреть.
>>>Дело в том, что вы и сами прекрасно понимаете, что ваш сайт никаких страданий не испытывает.

Не правда. Я как раз считаю, что испытывает. Да — его схема предельно упрощена, но это не отменяет того, что это достаточно точная абстракция на данном уровне упрощения.

>>> почему не боретесь за то, чтобы защитить его от страданий?

Ну я как бы вообще не борюсь за искоренение страданий. ;) Это не моя тема. Я знаю очень много примеров страданий самых разных — и со всеми ними я по жизни не борюсь!

>>>Если будет у вас реальная схема, которую вы действительно

Все схемы, что я привел — я считаю в достаточной мере репрезентативными. Другое дело, что я не занимаюсь проблемой страданий/удовольствий, не считаю их основополагающими и вообще сколько-нибудь важными.

Я занимаюсь изучением мышления и сознания. В этом смысле сайт который только и может, что страдать и наслаждаться (в четком соответствии с вашим ТЗ) — для меня простоват. ;) А вот что-то более сложное, формирующее внутреннее представление по принципам нейронной сети — вполне!
Не правда. Я как раз считаю, что испытывает.

Давайте тогда минимальное устройство, которое умеет испытывать наслаждение и страдание. Если взять два фото — на одном человек плачет, на другом улыбается и распечатать на одном листе с разных сторон — то при переворачивании стороной вверх с улыбкой — будет ли лист бумаги испытывать радость? А при переворачивании стороной вверх с плачем — лист будет испытывать страдание? Вы действительно так считаете?
Если под воздействием/обстоятельствами мы понимаем само переворачивание, а внутренним состоянием системы — какой стороной вверх лежит лист… Пожалуй да. Мы же говорим о предельном упрощении?

Моим критерием являются два основных момента: внутреннее представление внешних обстоятельств. Ну т.е. система должна иметь внутреннее состояние — некую реакцию на что-то. Т.е. в этой модели: если система находится в состоянии счастья, то условием сохранения счастья — ее не трогают. Воздействие, переворачивающее ее — будет причинением страдания.
Так. Еще раз. Если я нарисую убылку — значит лист испытает состояние наслаждения. Переверну лист, улыбка перевернется вниз — лист испытает состояние страдания. Так?
А если два человека одновременно сядут с противоположных сторон листа — с т.з. одного человека — убылка, с т.з. другого человека — плач. Лист то что испытает?
вы на ходу меняете условия эксперимента. ;)

Не важно что на листе. Не важно где он и как расположен.

Поймите: вы создали конечный автомат. Он имеет два состояния, которые вы обозначили как страдание и наслаждение. Вы определили действие, которое переводит автомат из одного состояния в другое. Все! Вы имеете ваше устройство.

смотрит на него кто-то улыбки там или крестик с ноликом — это все при таком уровне абстракции не имеет никакого значения.
Вот тут и фишка в симметричности. Вы можете обозначит ячейку #1 за наслаждение а ячейку #2 за страдание. Но откуда система об этом узнает? Другой исследователь посмотрит на вашу систему и примет допущение наоборот. Вот и все — для самой системы обе ячейки равнозначны и не отличимы — только внешний наблюдатель условно ДЛЯ СЕБЯ может что-то принять.

Точно так и с листом. Для одного человека улыбка для другого печаль. Одновременно. А для листа — нет ни того ни другого, т.к. у него нет таких понятий — эти понятия только в голове развитого человека.
Да с чего бы! ))))

Вы при проектировании определили какое из состояний чем является. При чем тут симметрия равнозначность и прочее. Какую ячейку вы чем назовете тем она и будет. Если у системы два состояний — хорошо и плохо, то совершенно однозначно понятно: где хорошо, и где плохо. И проектируя/усложняя систему/автомат дальше — вы будете соответствующие события/обстоятельства линковать туда, куда нужно.

>>>>для самой системы обе ячейки равнозначны

КАК? Ну как для системы в которой есть всего ДВА состояния — они могут быть равнозначны?!!! Они для нее весь мир. Черное и белое, добро и зло, свет и тьма. Они не то что не равнозначны — они воплощенная концепция противоположности.

Ну а уж наблюдатель тут вообще ни к селу, ни к городу.
Какую ячейку вы чем назовете тем она и будет

То, какую как назвали — есть только в вашей голове. Другой человек взглянет — и подумает что эти ячейки вообще за цвета отвечают.

то совершенно однозначно понятно: где хорошо, и где плохо

Ну вот, создал я систему с двумя ячейками. Как вы думаете — плохо это ячейка #1 или #2? Отож — вы знать не можете, эта информация только в моей голове. Тем более система не знает.

вы будете соответствующие события/обстоятельства линковать туда, куда нужно

Вот с этой линковки и начинается понятие хорошо и плохо. А вот куда прилинковать, чтобы стало хорошо и плохо — это вопрос. Приводили разные варианты — типа плохо, если разрушать корпус. Но все мимо — все легко опровергается. Не возникает наслаждения и страдания ни в какой мере.

Черное и белое, добро и зло, свет и тьма.

Только вот где белое а где черное, если ячейки не подписаны (и даже если подписаны — то система то читать не умеет)?

Внешние проявления страдания и наслаждения часто похожи, либо отсутствуют — так что внешний наблюдатель а этой парадигме лишнее (глядя на извивающегося червяка — вы понятия не имеете от боли он корчится или от удовольствия).


Вы в поставленной задаче не говорили ни о причинах страданий/наслаждений, ни о внешней их демонстрации — только о том, что девайс их «испытывает». Это классический «сферический конь в вакууме», т.е. вырожденная задача: «испытывать» — это находится в некотором внутреннем состоянии. Вы таких состояний задали два. Вы ничего не говорили ни про способ переключения, ни про интенсивность. Поэтому, строго говоря, достаточно одной булевой переменной.


Все остальное: понимание разницы, не умеет читать — выход за пределы ТЗ либо откровенная демагогия! Это как если бы вас заказчик программы заставил доказывать, что ваш код не перепутает переменные, потому, что они похожи по названию, да и вообще: «программа же не понимает смысла этих названий»! Ей и не нужно: это внутренние состояния, ощущения, если хотите, те самые квалиа… ;)

Поэтому, строго говоря, достаточно одной булевой переменной.

И с чего вы решили, что значение булевой переменной позволит страдать и наслаждаться?

Страдание и наслаждение — важные понятия, которые имеют юридические и нравственные последствия. То что система страдает — нужно доказать — доказывает тот, кто заявил, что она страдает.
>>> Страдание и наслаждение — важные понятия, которые имеют юридические и нравственные последствия.

Обосновать сможете? ;) Ну там не знаю: привести ссылки на юридические нормы, где страдание (наслаждение?) имеют значение сами по себе, безотносительно субъекта…

Потому, что если субъект обозначен прямо, то вы путаете причину и следствие: важен прежде всего субъект. Что он мыслящий, чувствующий, живой — и только потом страдание. Таким образом ваше построение изначально не верно.

>>> доказывает тот, кто заявил, что она страдает

Доказывает тот, кому это нужно. ;) Мне — нет. Вы спросили: действительно ли я так считаю. Я ответил: да, я считаю именно так. И объяснил свое видение, насколько это возможно. Вы имеете полное право со мной не соглашаться. Вы можете со мной не соглашаться и без доказательств — просто потому, что вам кажется, или вы интуитивно чувствуете. С этим не поспоришь. Но если вы хотите мне (или себе, что важнее) что-то доказать — нужно использовать строгую аргументацию.
он мыслящий, чувствующий, живой

Чувствующий — если чувствует страдания. Мыслящий — если умеет делать выводы логические, это не сложно добавить.

Но если вы хотите мне (или себе, что важнее) что-то доказать — нужно использовать строгую аргументацию.

Не всем людям можно доказать — многие просто ради прикола будут демагогией заниматься.

Для большинства людей и так понятно — просто любая ячейка памяти не эквивалентна страданию и наслаждению. Иначе бы и у человека любое воспоминание было эквивалентно страданию/наслаждению.
>>>Чувствующий — если чувствует страдания. Мыслящий — если умеет делать выводы логические

Оба утверждения спорны как минимум. Скорее всего — ошибочны.

>>> это не сложно добавить.

Но вы не добавили. Думаю потому, что понимаете их спорность.

>>>Для большинства людей и так понятно

Вы серьезно? Вы, рассуждая о таких материях используете уровень аргументации такого рода?

>>>Не всем людям можно доказать — многие просто ради прикола будут демагогией заниматься.

Совершенно с вами согласен! Беда с этими «некоторыми»: пытаешься вести с ними аргументированную дискуссию, а они тебе «Для большинства людей и так понятно»…
Давайте чуть подробнее:

«испытывать» — это находится в некотором внутреннем состоянии. Вы таких состояний задали два. Вы ничего не говорили ни про способ переключения, ни про интенсивность. Поэтому, строго говоря, достаточно одной булевой переменной.

Смотрите что получается. Два состояния, пусть вы сделали такую систему. Но откуда система знает, что эти два состояния — именно страдание и наслаждение, а не, к примеру, жарко и холодно (или еще бесконечное число вариантов чего может быть только два)? Данная привязка есть только в вашем сознании — сама система об этом не знает. Следовательно и нет никаких причин считать, что эти два состояния для системы именно страдание и наслаждение (ну и еще вопрос симметрии — 1 — это страдание или 0 это страдание — система об этом не знает).
Система ничего не «знает». Что бы что-то «знать» — нужно нечто большее, чем одна ячейка памяти.

Система просто имеет два состояния. Которые мы, как создатели системы определяем как «страдание» и «наслаждение». Соответственно все, что умеет система — находится в одном из этих состояний. Т.е. иными словами она ничего не знает — она просто или страдает или наслаждается. Мы никак не определили причины, т.е. не связываем внешние факторы с внутренним состоянием, мы ничего не говорим об ощущении(в плане сенсорики). Мы вообще исследуем «сферического коня в вакууме».

И делаем мы именно для того, что бы вы уточнили свое «ТЗ». Например вы можете сказать: мало прост определить состояния страдания/наслаждения. Нужно связать их с определенными внешними факторами, нужно реализовать память, нужны другие категории (жарко/холодно, свет/тьма)- что бы понять отличия, нужна возможность действовать, что бы система могла избегать страдания и стремиться к удовольствию и т.д. и т.п.

В итоге вы от «сферического коня» способного только страдать/наслаждаться перейдете наконец к настоящей проблеме: проблеме разума/сознания. Где собственно страдания и наслаждения будет лишь одной из категорий, не более значимой, чем все остальные.
Система просто имеет два состояния. Которые мы, как создатели системы определяем как «страдание» и «наслаждение».

Что значит «определяем»? У себя в голове создаете ассоциацию? Поймите — что от этой ассоциации в вашей голове — устройство системы не изменится. Если вы вместо этой ассоциации определеите другую — система не изменится — перестанет ли она страдать? Ч.т.д.
Не в голове. В системе. Мы проектируем систему и принимаем определенные правила игры. Систему координат, если хотите.

Вы пытаетесь оспорить систему координат, вместо того, что бы оспаривать суть. Это все равно, как если бы при описании системы вы бы придирались к словам вида «в верхней части» (а почему верх — там? А я сча вот переверну чертеж — и это будет низ!), «в носовом отсеке» (у него не может быть носа — он же не дышит!).

Я понимаю, что именно вам не нравится в модели, но вы не хотите этого признавать. Но проблема в том, что не признав факта, что поставленных вами условий — не достаточно, вы не в состоянии и оспорить систему!

Для того, что бы сказать, что что-то не является страданием, вам нужно определить собственно страдание. Хотя бы в минимальной конфигурации. Этого вы не делаете. Поэтому когда я говорю, что конкретное «состояние» системы и есть страдание — крыть вам нечем. ;)
Не в голове. В системе.

Хорошо, возможно я не понял вас.

В системе у вас 1-битная ячейка. Вы приняли в своей голове, что значение 1 — значит система страдает, 0 — наслаждается. Так? Если потом в своей же голове вы измените решение — 1 — наслаждается а 0 — страдает. Изменится ли устройство системы? Или изменилась ассоциация только в вашей голове? И если устройство системы не изменилось — то на каком основании вы считаете, что теперь система наслаждается а не страдает, находясь в состоянии 1?
Смотрите… Это вопрос а) системы координат; б) преобразования из одной системы в другую.

У вас есть одна система: ваша. В ней вы как бы знаете, где страдание, где — наслаждение. Как вы это знаете, что это собственно такое и прочее в данном аспекте не важно. Но у вас есть эти ориентиры.

Дальше вы берете искусственную систему, в которой хотите исследовать вопрос страдания/наслаждения. и вы вводите локальную систему координат для этой системы, которая на этом этапе не содержит ничего, кроме самого базиса из двух состояний: «а» и «б». Далее вам нужно ввести правило преобразования — из одной системы в другую. Вы приравниваете «а» к страданию, «б» — к наслаждению. Если бы в той системе было что-то еще, кроме самого базиса — все остальные преобразования были бы зависимыми. Но, т.к. там больше ничего нет, то это единственное преобразование. Если вы по какой-то причине решите изменить правила преобразования таким образом, что бы «б» — стало страданием, а «а» — наслаждением это не повлечет за собой ровно никаких последствий — тут вы правы. Но это ничего не доказывает. Это чисто математические преобразования вполне допустимые в нашей модели. Что бы они потеряли свою правомерность вам просто необходимо усложнить модель. Что бы она потеряла «симметричность», которая вас так напрягает!

Сделайте это: введите новые переменные в базис, и я с удовольствием соглашусь с вами в том, что простейшая модель перестала удовлетворять постановке задачи! ;)
Если вы по какой-то причине решите изменить правила преобразования таким образом, что бы «б» — стало страданием, а «а» — наслаждением это не повлечет за собой ровно никаких последствий — тут вы правы. Но это ничего не доказывает.

Еще как доказывает — это значит, что система не является субъектом — для нее страдание ничем не отличается от наслаждения — разница только в голове наблюдателия, да и то эта разница не объективна.

Суть наслаждения и страдания в том, что системе не нужен внешний наблюдатель, чтоы отличить одно от другого. Сама система является субъектом.

Что бы они потеряли свою правомерность вам просто необходимо усложнить модель. Что бы она потеряла «симметричность», которая вас так напрягает!

Ну слава Богу, до вас наконец дошло. Однако никаким образом не удалось ввести усложнение, которое бы могло задать некие наслаждения и страдания для системы — рассмотрено множество вариантов — результат нулевой. Но вам очень сложно что-то объяснить — вы не умеете абстрагировать — начинаете сразу с «сайта» и т.д. Чтобы объяснить вам простейшее — у меня ушло слишком много времени. Более сложные вещи объяснять вам не возьмусь — однако, возможно, найду время написать статью — возможно там в комментах вам пояснят.
>>> до вас наконец дошло
>>> вы не умеете абстрагировать
>>> Чтобы объяснить вам простейшее

Когда кончаются аргументы: всегда переходите на личности — верный способ! ;) Впрочем, о чем это я… Аргументов не было изначально — кончилось по всей видимости терпение… Что ж — это бывает.

Впрочем, спасибо. Вы меня развлекли…

Это было забавно.
>>> однако, возможно, найду время написать статью

Раз так, то в качестве материала для вашей статьи немного подытожу… ;)

>>> Однако никаким образом не удалось ввести усложнение, которое бы могло задать некие наслаждения и страдания для системы — рассмотрено множество вариантов — результат нулевой.

Вы вообще не задумывались над тем, что если результат нулевой, то возможно проблема в постановке вопроса?

С помощью упрощения модели я пытался вам это показать, но… Вы закономерно отвергли эти построения, как несостоятельные. Но если они строго по вашему ТЗ и несостоятельны — это значит что-то не так с ТЗ…

Как я уже говорил ранее наслаждение/страдание (далее н/с) есть реализация в нас системы мотивации. Кнута и пряника. Дофаминовая система вознаграждает нас за то, что «правильно», и мы страдаем, когда что-то идет не так. Она не совершенна — как и все, что возникло в процессе эволюции. Но как есть.

Проблема вашего БВ (большого вопроса), в том что сама по себе система с/н не имеют значения в отрыве от мотивации. Это я и пытался вам показать. Любой ML-агент имеет ровно такую же систему, как в нашем вырожденном примере: это суммарная метрика награды, которую он старается максимизировать. Старается он это именно максимизировать «by design» — потому, что мы так решили. Но мы не просто решили, что "+" — хорошо, а "-" — плохо! Мы связали это все с некими объективными вещами — с действием агента, с результатом оных!

Эта метрика имеет значение только относительно понятия «правильно/неправильно», только как оценка/мотивация. В отрыве от всего этого она превращается просто в переменную которая действительно симметрична и «ничего не значит».

Так что если вы (или эволюция!) заранее не определили, «что такое хорошо, а что такое плохо» — с/н лишены смысла. Хотя строго говоря — возможны… Мы же можем взять нашего агента и оставить от него только метрику? Получится наш вырожденный случай.

Если бы вы занимались вопросом мотивации — как она формируется, заданы ли критерии из вне, или мы сами их для себя определяем — это был бы достойный поиск. Это действительно Большой Вопрос.

Но вы отрезали самое важное… Вы отрезали мышление (оно у вас для «доказывания теорем»), вы оставили за скобками мотивацию… А получившаяся «бессмысленная» метрика вас не устраивает. Да нежели?! )

Как-то так… Дальнейшие прения (если возникнет желание к ним) предлагаю продолжить в комментариях к вашей статье! ) А то автор этой вероятно и так в шоке от нашего «флуда». ))
Действительно, лучше бы codecity написал отдельную статью. Включил бы в нее обзор ТПС и описал бы свою идею. Сил на эту дискуссию ушло много — наверно можно было это время сэкономить и написать статью. А потом спокойно обсудить…
наверно можно было это время сэкономить и написать статью

Пока я в отрыве от понимания данного вопроса обществом. Пытаюсь найти точки соприкосновения.
Но если они строго по вашему ТЗ и несостоятельны — это значит что-то не так с ТЗ…

Дело в том, что данное Т.З. — исследовательское. Нужно исследовать процессы страдания и наслаждения в ЦНС и воспроизвести их. Всего то.

А вы хотите, чтобы в вопросе была половина ответа. А нет ее этой половины ответа.

Эта метрика имеет значение только относительно понятия «правильно/неправильно», только как оценка/мотивация.

Этот вариант тоже рассматривали и поняли его ошибочность.

Дальнейшие прения (если возникнет желание к ним) предлагаю продолжить в комментариях к вашей статье! )

К сожалению, пока вижу что после перенесенных мной интроспективных экспериментов — не могу найти общий язык с большинством по данной тематике. То что для меня очевидно — другим приходит очень долго пояснять.
К сожалению, пока вижу что после перенесенных мной интроспективных экспериментов

Наверно, в этом вся проблема, ваш субъективный опыт — он целиком ваш. Ваши квалиа «непосредственно» недоступны другим. Их надо осознать. Доступ к вашим квалиа возможен только через внятное — адаптированное для других людей — изложение. По этому поводу не надо истерить — это данность… Вам надо найти способ вербализовать ваши представления — «мяч на вашей стороне». Долго и трудно объяснять, приводить аналогии, попытаться понять другую сторону. Не только стремиться передать (частенько это подменяется «силовыми» методами — продавить, навязать) свои представления, но и понять противоположную сторону — построить модель адресата, попробовать «смоделировать» представление своего оппонента.
Еще раз: если вы считает себя вправе рассуждать о ТПС — изложите ее и приведите те положения по которым вы с ней расходитесь. Требовать от пользователей Хабра знания положений ТПС (хотя на Хабре были уже статьи которые ее касались), точнее вашего представления о ней — глупо — как вы ее себе представляете никто в мире кроме вас не знает.

Начните делать то, что нужно. Затем делайте то, что возможно. И вы вдруг обнаружите, что делаете невозможное.
Св. Франциск Ассизский

У вас тут большая дискуссия, но вы так и не упомянули основной признак. От страдания нельзя отвлечься по желанию, поэтому оно и воспринимается настолько негативно. Если бы можно было, то проблемы бы никакой не было. Оно отвлекает на себя внимание, влияет на все процессы. Мне кажется, с этого надо начинать искать отличие устройства и человека.

От страдания нельзя отвлечься по желанию

Ну вот, хоть кто-то продвинулся чуть дальше, чем просто любая ячейка уже испытывает страдание или наслаждение (что очевидная глупость, а с глупость оспорить сложно). Но и ваше предположение не впервые выдвигается. Попробуйте написать алгоритм — сразу поймете в чем ошибка.

Тут речь не ошибку, это просто факт. Если вы видите где-то тут ошибку, значит у вас неправильная логика, потому что она не соответствует фактам.

Вы ввели понятие «желание». Оно нисколько не понятнее самого страдания или наслаждения, т.е. его природа и природа страдания/наслаждения — примерно равнозначны и в равной степени являются неразрешенной загадкой.
Оно нисколько не понятнее

Так это неважно. Важно, что это факт. Если бы ощущениями можно было управлять, это не имело бы такого большого значения. Так что если мы хотим это повторить, надо это учитывать. Если оно непонятно, надо его анализировать, а не отмахиваться от него. Иначе это примерно как искать там где светло, а не там где уронил)

>>>что очевидная глупость

И этот человек упрекает меня в демагогии! )

Во-первых, Переход от обсуждения предмета спора к обсуждению личности (аргумент к личности), во-вторых — Апелляция к очевидности, ложная авторитетность.

В вопросах, которые мы обсуждаем — нет ничего очевидного, иначе бы эту проблему не называли трудной.

Еще раз: предельное упрощение является вполне рабочим методическим приемом. Если вы не можете оспорить простейшую формулировку — дальше вам двигаться смысла нет.
В тривиальной реализации, на которой мы застряли — нет понятия желания, как и возможности по оному переключатся. ;) Так что оное, как это и не удивительно, вполне удовлетворяет вашему «основному признаку».

Мне встречались описания того, что отвлечься можно. Не сломленные в немецких лагерях, Будда, Дон Хуан с его сталкингом... Но, возможно, это всё были слабые формы страданий и боли.

Меня очень занимает тема разума вообще и искусственного разума в частности, но я статью не осилил. Может «исходники» Николая Михайловича зайдут лучше… Я попробую, но не уверен. ( Потому, что для того, что-бы полагать, что "именно они — наиболее вероятные кандидаты на роль «серебряной пули», которая позволит энтузиастам «сильного интеллекта» или, в другой терминологии, «искусственного разума» приблизиться к пониманию путей его реализации", а так же обращаться "ко всем, у кого есть задор, жгучий интерес к теме «искусственного разума», а также желание поближе познакомиться с подходом Н.М. Амосова" хорошо бы кратенько, тезисно пояснить: почему с работой, "изданной уже более полувека назад (1973)", на которую "практически никто не ссылается" — почему все таки с этими работами/концепциями стоит попробовать разобраться? Что в них есть такого, что стоит убить не один час времени, что бы просто вникнуть в суть? Какие-то поражающие воображения результаты? Прорывные концепции? Она дает ответы на фундаментальные вопросы?

Я не говорю, что не дает/не имеет! Я просто очень хочу разобраться, но реально не могу тратить столько времени на материал, что еще в родном 79-ом " расценивался в научной среде… как устаревший и чересчур трудоемкий". Полагаю вы своим материалом ясности не привнесли… А хотелось бы наоборот!

Я почти уверен, что в работах Амосова есть что-то актуальное даже сейчас, но…
Могу сказать, почему работы Амосова вдохновляют меня. В свое время, на первом курсе военного училища я пробовал понять, как устроен мозг, пытался выстроить свое понимание как мыслю я сам, что общего можно выделить в плане алгоритма работы мозга, разума. Помню, после трудового дня ходил несколько часов по территории училища и думал, анализировал, записывал… До тех пор, пока не натолкнулся на препринт работ лаборатории Амосова и понял — вот оно — то, о чем я думал, что записал сам. Все стало логично и понятно. Лично мне понравился подход Амосова не с точки зрения биологии, или математики, а на стыке — информационное объяснение того, как работает мозг, какие информационные процессы в нем происходят. Спасибо автору статьи (kapas19), что привлекает внимание к работам Николая Михайловича, вызывает уважение его смелость обратить внимание к такой сложной теме. В одной статье рассказать все невозможно.

Амосов в своих работах соблюдает строгий баланс между биологией, математикой, возможно, философией. В далекие 50-е прошлого века они в своей лаборатории моделировали процессы, которые сейчас никто смоделировать не сможет. Небезразличным, думающим, очень рекомендую познакомиться с работами Амосова. Уверен, многие найдут ответы на свои вопросы о разуме и источник вдохновения для своих работ.

Еще раз спасибо автору статьи, за привлечение внимания к этой теме.
Я вас понимаю, но у меня противоположная проблема… Я много лет размышлял над этим вопросом (читал конечно многое), и теперь у меня есть некоторое «кумулятивное» собственное видение проблемы. ;) И через призму этого собственного видения очень плохо проходят многословные пространные рассуждения, которые содержат мало прикладной конкретики (Хотя казалось бы — полстатьи исходников… Но не дают они понимания — зачем это все!) и много терминологии…

Впрочем, возможно я не прав. И сквозь эту призму просто плохо проходит… Все. ) Так что я попробую почитать первоисточник.
kapas19 анонсировал следующую статью в которой продемонстрирует реализацию аппарата на простом и наглядном примере Спиди. Уверен, это поможет лучше прочувствовать и понять основные принципы теории Амосова.
Скачал уже — попробую…
Прочитал… Ну по крайней мере страниц 30 первых.

Если бы Николай Михайлович занимался этими бы вопросами сейчас — у него не было бы проблем с вычислительными ресурсами, и поэтому реализацией i-моделей в железе он бы вряд ли озадачивался.

А в остальном — главная проблема, которую я не пойму, как предлагается решать — это создание всех вот этих i-моделей… Разработчиком вручную? Ну это по сути архитектура для создания прикладных автоматов, а не сильного ИИ…

Не, мне понравилось его читать! Здравые рассуждения и подходы для своего времени. Ничего противоречащего моим представлениям, но и, к сожалению, ничего сильно революционного. На момент написания книги еще даже обратного распространения ошибки не было. Будь у него такие возможности технологические да и концептуальные, как сейчас — скорее всего он бы держался в рамках общей парадигмы. Ну может работал бы в направлении ансамблей сетей, RL и прочего…
А в остальном — главная проблема, которую я не пойму, как предлагается решать — это создание всех вот этих i-моделей… Разработчиком вручную? Ну это по сути архитектура для создания прикладных автоматов, а не сильного ИИ…

Так оно и есть. К сожалению. Они так и делали и другого придумать не смогли.

Но из любого положения есть выход.
Спасибо за пересказ работы Николая Михайловича, но кажется Вы занимаетесь подменой понятий. Изначально, на сколько я помню, в М-автоматы вкладывалась функциональность кортикальных колонок. В данной же статье, всё что до «Часть 2. Реализация» — аккуратный пересказ первоисточника, с некоторыми субъективными фантазиями, далее — ничего общего с первоначальной идеей.
М-автоматы вкладывалась функциональность кортикальных колонок

Не в М-автоматы — в i-модели.
1. Но у меня сложилось впечатление, что авторы, не всегда последовательно эту идею проводят. Да, в отдельных местах, они об этом говорят, но фактически (при описании методологии) от этого сопоставления отказываются.
2. i-модели, по своей сути это другой уровень моделирования психических процессов, сопоставлять им впрямую какие-либо нейрофизиологические структуры было бы неверно. Это модели ментальных (психических) состояний, если хотите — квалия.
3.
далее — ничего общего с первоначальной идеей

Вы имеете ввиду 2ую часть статьи — реализацию?
Концепция (подход) Амосова Н.М. — это попытка формализованного описания информационного продукта работы эфирной нейронной гиперсети (то есть мозга) с последующим «наложением» этой «формализации» на сам мозг. То есть это заведомо подход сверху вниз («top-down approach»). Поэтому, хотя идеи Амосова в некотором смысле и отражают работу мозга, но являются лишь высокоуровневой примитивизацией и не раскрывают ключевую особенность сознания — его гиперсетевую суперпозиционную эволюционность…
Простите не знаком с терминологией. А что это такое — гиперсетевая суперпозиционная эволюционность?
Гиперсетевая суперпозиционная эволюционность сознания — это интеллектуальная составляющая сознания, то есть изменчивость и отбор информации посредством ассоциативного блуждания в суперпозиционном широковещательном потоке выходных эфирных электрических паттернов нейронов в электропроводящей сети вокруг нейронов…
Попытаюсь разобраться в холиваре :)
Гиперсетевая — это надсеть из нейронных сетей (что-то типа широковещательного коллективного разума).
Суперпозиционная — то есть в каждой точке широковещательной гиперсети состояние определяется суммой независимых эфирных электрических паттернов ассоциативно блуждающих в электропроводящей сети вокруг нейронов.
Эволюционность — термин совсем не раскрыт, прошу пояснений.
Информация — это образы и ассоциации между ними. Сознание — это суперпозиционный (в «обычном» классическом электрическом смысле) гиперпоток паттернов. Вследствие естественной «нечёткости» электрического потока и многообразия наложений паттернов друг на друга возникает «ассоциативное блуждание» — случайная активация тех или иных нейронов с последующим отправлением их выходных эфирных электрических паттернов в «электросеть вокруг нейронов» (это «изменчивость информации»). Если в результате в потоке возникает ассоциативный цикл с участием какого-нибудь «случайного нейрона», то таким образом происходит его включение в образно-ассоциативный архив нейронной сети (это «отбор информации»). Интеллект — это способность сознания к «эволюции информации». То есть «эволюционность сознания» — это просто синоним интеллекта…
Концепция Амосова Н.М. содержит в себе по-сути надсистему СУТ. И по-этому поводу есть вопрос.

Наверняка есть причины для использования дополнительного внешнего механизма СУТ, вместо встраивания в i-модели какого-либо внутреннего механизма взаимных обратных связей? В таком виде М-сеть математически выглядела бы более органично. В нейрофизиологии вроде нет надстройки типа СУТ (возможно, это гормональная подсистема, но тогда должен быть лаг по тактам), а СУТ верхнего уровня в виде «сознания-мышления» работает только с выходным сигналом.

Конечно, я посвящу время изучению первоисточников, но если авторы концепции уже объявили причину, то дайте краткие пояснения.
В нейрофизиологии вроде нет надстройки типа СУТ ...

Да вроде есть.

Тормржение в ЦНС было открыто ещё в 1862 году И. М. Сеченовым, выделяют пресинаптические (параллельное, латеральное) и постсинаптические (реципрокное или «прямое», параллельное, возвратное, латеральное).

Ещё интересные эффекты, гораздо более сложные, нежели описанная СУТ, возникают при внесинаптической передаче нейромедиатора. Кроме того, для лучшего понимания, рекомендую почитать про пейсмекерные нейроны и их роль в усилении торможения.
Промахнулся. Ответил чуть ниже
Возможный ответ на ваш вопрос по нейрофизиологический «субстрат» СУТ:
….
2. Ретикулярная формация ствола мозга как переключатель режимов
Какова тогда роль ретикулярной формации (РФ), в особенности ее стволовых частей, которые, как известно, связаны со сном, бодрствованием и комой? РФ может действовать как «переключатель режимов» системы, которая выполняет более специфический отбор. Если воспользоваться метафорой сознания как прожектора, то ядра РФ, возможно, действуют как реостат для увеличения или уменьшения силы света, но не как рычаг прожектора для направления луча на какой-то конкретный объект. Сон, бодрствование и грезы могут быть достаточно правдоподобно охарактеризованы как различные «рабочие режимы» нервной системы.
Бернард Баарс «Когнитивная теория сознания»
(см. Baars B.J. A Cognitive Theory of Conscious, 1988; p. 128)
Спасибо за вопрос.
Наверняка есть причины для использования дополнительного внешнего механизма СУТ,...

Как я понимаю СУТ в концепции Амосова выполняет роль регулятора активности i-моделей одного уровня (или для определенного ансамбля i-моделей), их арбитра: — погасить режим самовозбуждения; — перераспределить ограниченные ресурсы в пользу наиболее возбужденной i-модели (например, сделать выбор из возможных альтернативных моторных действий или интеллектуальных операций); — координация более крупных функциональных блоков.
Наверняка, есть причины, связанные с результатами, полученными коллективом Амосова в вычислительных экспериментах.
вместо встраивания в i-модели какого-либо внутреннего механизма взаимных обратных связей

С моей точки зрения, это очень перспективный подход.
СУТ тоже может быть i-моделью. Собственно Амосов проводит аналогию между СУТ и механизмом внимания и даже более того для него СУТ — основной «движок» того что мы называем сознанием. Он прямо ссылается на доминанту А.А. Ухтомского (например, см. самое начало «Алгоритмов разума»). Он практически прямо об этом пишет.
Как это «реализовано» в нервной системе вопрос интересный, но, естественно, на него готового ответа нет. Я в большей степени вижу i-модели (М-сети) как функциональные системы которые могут быть «реализованы» как в виде микроколонок коры, иных нейронных структур, так и в виде процессов активности отдельных крупных участков ЦНС.
СУТ верхнего уровня в виде «сознания-мышления» работает только с выходным сигналом

Почему? СУТ верхнего уровня в виде «сознания-мышления» должно регулировать нижние этажи психики.

Позволю себе немного пофантазировать. Если сознание – СУТ самого верхнего уровня, то оно, с одной стороны, получает входы от некоторого промежуточного уровня (условно назовем его «ассоциативным») – i-модели среднего уровня («интегрирующих» сведения от сенсорных анализаторов) – данные о внешней среде, о состоянии внутренней среды (от висцеральной НС) и т.п. в достаточно общей форме (ментальные репрезентации, квалиа), на выходе выдает опять таки обобщенные «моторные» команды на выполнение определенных действий (в том числе интеллектуальных операций). Скорее всего, эта СУТ должна иметь двойника, свою «тень». Такая связка может обеспечить взаимное торможение/возбуждение (меня терзают смутные сомнения, что это один из базовых принципов организации в НС и он реализуется в том или ином виде на всех уровнях ее организации). Но не буду слишком забегать вперед…

Надеюсь, на то, что правильно вас понял и смог ответить на ваши вопросы. Надеюсь на дальнейшее общение.
Спасибо, за ответ neuronus и kapas19!

Согласен с тем, что задачи возлагаемые на СУТ в концепции М-Сети ассоциируются с механизмом пейсмекерного потенциала и клетками Реншоу, но механизм торможения медиаторами, как и ускорение гормонами имеет другую структуру действия, которая в СУТ должна выражаться дополнительной структурой.

Впрочем, а зачем описываемая концепция должна повторять природный механизм? Это вовсе не обязательно. Ведь компьютерные нейросети всего лишь однобокая реализация простейшего нейронного механизма.
компьютерные нейросети всего лишь однобокая реализация простейшего нейронного механизма

зыбкая почва холивара :)

О каком простейшем нейронном механизме идёт речь?
Про холивар принято :)

Я имел ввиду, что теоретическая концепция М-сети не только может, но и должна отличатся от природной реализации нервных и психических процессов за счёт использования другого уровня абстракции и понятийного множества.

Возможно, я не очень корректно сопоставил понятия нейронная сеть и нейронный механизм, но говорил я о том, что ИНС моделирует только получение и передачу раздражающего сигнала из всего многообразия процессов происходящих в нейроне. И это, как правильно заметил kapas19, ограничивает возможности ИНС для построения систем ИИ.
С моей точки зрения, это очень перспективный подход.
СУТ тоже может быть i-моделью.

Не готов сформулировать внятное предложение, все-таки концепция теоретически достаточно стройная, но попробую: например, две обязательные i-модели (или ансамбли) имеющие связи со всеми представителями регулярных ансамблей — одна с тормозящей программой, другая с ускоряющей. Это, конечно, похоже на СУТ в нынешнем виде, но описывается на языке i-моделей. Либо обязательный гистерезис в программе i-модели с обязательной взаимной связью i-моделей как источник осцилляций возбуждения. В зависимости от состояния входов осцилляции возбуждения могут как нарастать, так и угасать. Не-е, так с лёту внятно не получится, нужно читать источники и думать.

СУТ должна иметь двойника, свою «тень». (меня терзают смутные сомнения, что это один из базовых принципов организации в НС и он реализуется в том или ином виде на всех уровнях ее организации)

Так и есть. Эндокринная система и как тень ЦНС в организме, и как самостоятельная СУТ воздействующая на ЦНС, включая высшие когнитивные функции. Самый популярный пример ускорения-торможения в связке ЦНС-гормоны это «стресс».
Это я называю «мягкий триггер». Есть такое дело у Амосова. Например: в простейшей модели «робот Спиди» есть связка двух конкурирующих i-моделей, названные авторами: «Страх» и «Уверенность». Они образуют вполне себе настоящий триггер. Но это уже другая история. Как говориться — Продолжение следует…

Внесу небольшую поправочку к своему предыдущему ответу:
(меня терзают смутные сомнения, что это один из базовых принципов организации в НС и он реализуется в том или ином виде на всех уровнях ее организации)

Меня терзают смутные сомнения, что это один из базовых принципов организации в психики и он реализуется в том или ином виде на всех уровнях ее организации
:) Дайте, попробую угадать!

Речь идет о подкорковом уровне, о подсознательной психике формирующейся от рождения и частично обусловленной генетически. Темная сторона психики — инстинкты. Я угадал?

Кстати! А это и есть явная причина вынесения СУТ в отдельный механизм неконтролируемый непосредственно i-моделями. Подсознание (и смежные с ним инстинкты) проделывает похожие фокусы с сознанием-мышлением, выпячивая на передний план мысли о похоти, заглушая у водителя контроль дорожной обстановки.
Ожидал большего от этих М-сетей.

Очень пространное описание нечто похожего на так называемую «модель малого мира», которой сейчас описывают коннектом.

Всю статью можно свести к одному абзацу. Это однослойная полносвязная нейронная сеть/граф (здесь не важно, что под нейроном понимается большая группа из реальных нейронов) с двумя отдельными линиями связи, возбуждающей и тормозящей. В сети действует латеральное торможение для выявления победителей. Всё.

Это описание взаимодействия зон мозга в целом — архитектура. Этакие маршрутные карты, в которых записано какими областями в какой последовательности обрабатывать те или иные задачи. То, что биологи видят на томограммах у испытуемых, когда те смотрят котиков или решают математические задачи.
Конечно. Графы по связности зон коры есть в каждой второй работе, начиная с изобретения томографа. В чём их практическая польза в построении ИИ? Подобный граф есть в CPU (из АЛУ, регистров, кешей, ядер и т.д.), но он не даёт решения как узнавать котиков и решать математические задачи. Такой эксперимент даже реально недавно проводили. Слишком высокий уровень абстракции.
UPD. Пробежался по книгам Амосова. Пару из них стоит прочитать. Но это всё RL. И на мой взгляд его идеи должны ещё полежать лет десять минимум, так как модули (восприятия), из которых предполагается строить схему поведения агента, ещё не созданы.
Во… У меня такое же ощущение…
VDG, постараюсь высказаться отн. всех ваших комментариев:
Но это всё RL

1. Немного исторического контекста:
1.1. Действительно, первое, что бросается в глаза – отдельные моменты очень похожи на обучение с подкреплением, но это только отдельная часть модели Н.М. Амосова.
1.2. Основные работы Н.М. Амосова были опубликованы: 1965, 1968, 1969, 1973 [3]. Последняя работа была фактически отчетом о многолетней НИР, т.е. ее результаты появились гораздо раньше основной публикации (возможно даже были какие-то публикации в трудах Института кибернетики АН Укр. ССР – к сожалению, мне они не доступны).
1.3. Рождение метода «Обучения с подкреплением» можно отсчитывать от работ М.Л. Цетлина — 1961 (М.Л. Цетлин, О поведении конечных автоматов в случайных средах, Автомат. и телемех., 1961, том 22, выпуск 10, стр. 1345–1354), 1963 (Гельфанд И.М., Пятецкий-Шапиро И.И., Цетлин М.Л. О некоторых классах игр и игр автоматов // Докл. АН СССР, 1963, том 152, номер 4, с. 845-848. – на эту работу ссылается Википедия в статье «Обучение с подкреплением»).
Это я привел для того чтобы показать, что не надо привязывать и оценивать работу Н.М. Амосова с современных позиций. Необходимо вводить поправки. В момент написания своих книг он мог быть знакомым только с этими работами. Да и то, вряд ли: уровень математики (формализации) в работах М.Л. Цетлина достаточно высок – они доступны для полноценного понимания специалистам по теории игр, ТАУ. Н.М. Амосов был скорее «практиком» в этом отношении. А вот общение его с А.Г. Ивахненко (он был рецензентом его работ) вполне себе могло быть катализатором развития идеи использования «обучения с подкреплением» в том виде, в котором оно представлено в [3]. Да в каком-то смысле – эта идея никогда не была каким-то исключительно запредельным знанием: теория и эксперимент в физиологии как раз на нее и опирались. А физиологию Н.М. Амосов знал хорошо… Работы И.П. Павлова в то время знали практически все. О роли эмоций в поведении в тоже самое время много писал Симонов П.В.
2. Непосредственно по материалу:
2.1.
Графы по связности зон коры есть в каждой второй работе, начиная с изобретения томографа.

Мы вели разговор не о визуализации активности зон коры головного мозга, а о модели ИР.
2.2.
Подобный граф есть в CPU (из АЛУ, регистров, кешей, ядер и т.д.), но он не даёт решения как узнавать котиков и решать математические задачи.

Если так расширять аналогию, то не проще ли бы не снижая общности рассуждений сослаться на теорию графов.
3. Похоже ли это на семантические сети? Да, но надо заметить, что метки типа в модели «робот Спиди» «Страх», «Уверенность» и т.п. носят весь декоративный характер и применяются только для иллюстрации в этой простейшей модели, для более сложных моделей (РЭМ, МОД) это сделать практически невозможно – там «функция» i-модели определяется ее «местоположением» в М-сети, а не именем (да и у «робота Спиди» это лишь условные метки) – «прагматикой», а не «семантикой».
4.
Это однослойная полносвязная нейронная сеть/граф (здесь не важно, что под нейроном понимается большая группа из реальных нейронов) с двумя отдельными линиями связи, возбуждающей и тормозящей. В сети действует латеральное торможение для выявления победителей. Всё.

Не все. Есть еще
– свои правила, связанные с перестройкой М-сети при работе М-автомата;
– система оценок, и это не просто аналог RL;
— СУТ (это не только латеральное торможение – локальная отрицательная обратная связь) должна быть устроена таким образом, чтобы обеспечить поведение (последовательность активаций i-моделей), подобного поведению некоторой динамической системы вблизи сепаратрисы седла. Т.е. добиваются одновременного существования отрицательной и положительной обратной связи. В этом я несколько отхожу от формальной интерпретации концепции Н.М. Амосова. «Нейросетевая классика» требует наличие единственного «глобального минимума», чего и добиваются обучением (натаскиванием) нейросетей.
5.
И, на мой взгляд его идеи должны ещё полежать лет десять минимум, так как модули (восприятия), из которых предполагается строить схему поведения агента, ещё не созданы.

i-модели, и есть квалиа (денотаты, элементы восприятия и не только). То, что необходимо для активации таких элементов (ощущение) в настоящий момент имеется – разнообразные сверточные сети, автоэнкодеры и т.п.
6.
И, на мой взгляд его идеи должны ещё полежать лет десять минимум

Для чего или для кого идеи Н.М. Амосова должны
полежать лет десять минимум
? Или они давно известны и ничего из себя не представляют, ничего нет нового (собственно говоря, нового – в оценке «возраста» этих идей – они действительно не представляют – первым работам автора концепции – Н.М. Амосова – уже более 50 лет!), если уже сейчас есть все необходимые предпосылки для ее апробации и использования?
Начните делать то, что нужно. Затем делайте то, что возможно. И вы вдруг обнаружите, что делаете невозможное.
Св. Франциск Ассизский

7. Ничего из себя не представляет?
Это описание взаимодействия зон мозга в целом — архитектура. Этакие маршрутные карты, в которых записано какими областями в какой последовательности обрабатывать те или иные задачи. То, что биологи видят на томограммах у испытуемых, когда те смотрят котиков или решают математические задачи.

Слишком высокий уровень абстракции.

Это уровень психики (психологии, если говорить об областях исследований), а не нейроанатомии и нейрофизиологии. Мы реально имеем дело с «психическим» уровнем моделирования. Речь фактически идет о ментальных репрезентациях и функциональных системах – ФС (i-модели, ансамбли, СУТ). Кстати, полным аналогом ФС у Н.М. Амосова выступает функциональный акт (см. [4], глава «Функциональный акт», стр. 85-109).
8. По поводу кора или не кора ГМ: В статье (в замечаниях к материалу) я упоминал, о том, что отсылка к корковым колонок как нейрофизиологическом субстрате i-моделей в работе [3] слишком противоречивое. Одно дело, заявления авторов работы [3] (и самого Н.М. Амосова), другое дело – то, что они реально описывают как М-сети и автоматы.
Да, что-то (многое) может быть «реализовано» в колонках коры ГМ, но скорее всего – не все. Колонки коры стали своеобразным идолом для исследователей НС и проблем ИИ. Вполне вероятно, эта «схемотехника» очень низкого уровня для реализации ИР.
В связи с этим хотел бы упомянуть работу Б. Баарса «Когнитивная теория сознания». Он связывает работу сознания с достаточно большой совокупностью областей ЦНС:
В стволовой части мозга и в переднем мозге находится анатомическая и функциональная система, которая, как известно, имеет тесные связи с сознанием, в том смысле, что люди теряют или приходят в сознание при ее активизации (Dixon, 1971; Hobson & Brazier, 1982; Magoun, 1962; Scheibel & Scheibel, 1967). Эта структура включает в себя классическую ретикулярную формацию (РФ), открытую Джузеппе Моруцци и Горацием Мэгуном (Moruzzi & Magoun, 1949), которая получает информацию из всех важных структур головного мозга, включая все сенсорные и моторные тракты, и делает возможным самое тесное взаимодействие между всеми этими источниками информации. Ретикулярная формация распространяется далеко вверх, вплоть до неспецифических ядер таламуса. Если смотреть с функциональной точки зрения, то в эту более широкую структуру заслуживает включения система диффузных таламических проекций (Diffuse Thalamic Projection System), которая посылает многочисленные нервные волокна ко всем областям коры больших полушарий (Рис. 3.1). Возможно, следовало бы также включить в эту структуру и кортико-кортикальные связи. Мы будем называть этот полный набор анатомических структур расширенной ретикулярно-таламической активирующей системой, сокращенно, РРТАС (Extended Reticular-Thalamic Activating System [ERTAS]).

И далее
Как было отмечено выше, мы включаем в состав термина расширенная ретикулярно-таламическая активирующая система систему диффузных таламических проекций – пучок аксональных волокон, проецируемых нейронами таламуса вверх, наподобие фонтана, во все области коры больших полушарий. Эта система включает в себя как специфические, так и неспецифические проекции, и оба вида проекций обычно имеют в своем составе петли обратной связи, идущие в противоположном направлении. Таламическая часть этой системы может «транслировать» информацию из ретикулярной формации всем частям мозга. Мы уже обсуждали результаты исследования вызванных потенциалов (Tatcher & John, 1977), согласно которым сигналы о новых, еще не ставших привычными стимулах распространяются по всему головному мозгу (2.5). В одном из вариантов развития событий какая-то сенсорная зона коры полушарий могла бы дать инпут для РРТАС. Если этот инпут превалирует над конкурирующими инпутами, то он становится глобальным сообщением, которое широко рассылается другим областям мозга, включая и оставшуюся часть коры. Таким образом, один отобранный инпут в РРТАС усиливается и распространяется за счет других (3.1.3).
Следовательно, мы можем предположить, что РРТАС лежит в основе такой функции сознания, как «глобальное распространение сообщений», тогда как отобранный перцептуальный «процессор» коры головного мозга поставляет конкретные содержания сознания для глобального распространения. (Эти содержания обычно являются перцептуальными, потому что РРТАС получает коллатеральные пути от всех сенсорных трактов; и, к тому же, мы уже отмечали преимущественную связь сознательного опыта с перцепцией). В свою очередь, эти содержания сознания, когда они транслируются нервной системе, могут инициировать моторную, мнемическую и ассоциативную активность.
Есть независимые, самостоятельные доказательства того, что сама по себе кортикальная активность не становится сознательной (Libet, 1978, 1981; Magoun, 1962; Shevrin & Dickman, 1980). Следовало бы предположить, что любая кортикальная активность должна инициировать поддержку со стороны РРТАС в циркулировании потока информации, прежде чем она сможет распространяться глобально и стать сознательной (например, Scheibel, 1980; Shevrin & Dickman, 1980). Норман Диксон (Dixon, 1971, 1981) также утверждал, что прежде чем сенсорный инпут становится сознательным, имеет место циркуляция потока информации между ретикулярной информацией и корой.

9.1. Резюмируя обсуждение материала статьи можно сказать, что в основном цели публикации, провозглашенные в п. 6 предисловия, была достигнута:

  • ✓ у читателя сложится предварительное представление о существе концепции Н.М. Амосова;
  • ✓ у читателя возникнет интерес к самостоятельному изучению подхода Н.М. Амосова к проблематике искусственного интеллекта (искусственного разума), а возможно к его самостоятельному развитию;
  • ✓ у читателя хотя бы на миг возникнет «разрыв» нейросетевого «шаблона» — современной парадигмы, рассчитывающей на статус «естественного» и единственно верного подхода к реализации модели человеческой психики.>

9.2. Примечательно, то что в комментариях к статье, по отношению к концепции Н.М. Амосова, были пройдены все три стадии признания научной гипотезы: первая – «это абсурд», вторая – «в этом, что то есть», третья – «это общеизвестно».
Я не поклонник всевозможных духовных школ, но хотел бы привести еще раз слова Нисаргадатта Махараджа:
Делайте то, во что верите, и верьте в то, что делаете. Все остальное – пустая трата энергии и времени.
i-модели, и есть квалиа (денотаты, элементы восприятия и не только). То, что необходимо для активации таких элементов (ощущение) в настоящий момент имеется – разнообразные сверточные сети, автоэнкодеры и т.п.
Как это согласуется с физиологией? Например, ощущение цвета, т.е. квалиа цвета по вашей терминологии, кот. присутствует при восприятии, при воспоминаниях, в глюках, синестезии, в воображении имеет единый источник происхождения, кот. условно можно назвать цветовым центром, локализованным в визуальной зоне V4 (в основном, есть нюансы в разных исследованиях).

Несколько озадачивают ссылки на работы такой древности, даже в отношении отечественных нейрофизиологов. С того времени достигнуто большее понимание механизмов возникновения ментальных явлений. Те же работы Иваницкого А.М., см. популярные обзоры 1, 2 по информационному синтезу и реентерабельности (идеи восходят к более ранним работам Эдельмана). Так же его работы по образному мышлению, см. эту. Вообще относительно хорошо исследованы и моделируются, либо сенсорно-перцептивные процессы (практически все ИНС копируют в каком-либо виде структуру и обработку в вентральном тракте зрит. системы), либо уровень абстрактного мышления, языковых функций, грамматики (последняя шумиха вокруг GPT3 и подобным). Связующий их уровень образного мышления (уровень внутренней модели мира) только начинает исследоваться. Некоторые сомневаются, что такой уровень имеется. Но как тогда мыслят животные? Дети еще не владеющие языком? Как быть с бессознательными функциями человека? Есть еще масса вопросов связанных с этим. Пока с этой «темной» зоной (прямо таки напрашиваются аналогии с «темными» сущностями Вселенной:) не разберутся вряд-ли полноценный ИИ, сравнимый с человеческим, будет создан. Впрочем, это больше нытье) кот. может не влиять на практические реализации моделей интеллекта. Эволюционные решения можно исследовать, учитывать, вдохновляться, но есть и обходные пути решений.
Несколько озадачивают ссылки на работы такой древности, даже в отношении отечественных нейрофизиологов

Я привел цитаты Б. Баарса из его работы «Когнитивная теория сознания», как пример возможного нейрофизиологического механизма. Все цитаты выделены. Пример, может быть уточнен в том числе с учетом работ Иваницкого А.М. (правда, вы можете с этим не согласиться — в этих работах нет, того что можно было бы назвать теорией).

У нас нет с вами расхождений в оценках. Поддержу:
Впрочем, это больше нытье) кот. может не влиять на практические реализации моделей интеллекта. Эволюционные решения можно исследовать, учитывать, вдохновляться, но есть и обходные пути решений.

Вы же понимаете, что в этом направлении достаточно вполне себе серьезных работ: Ю. Конорски, Р. Баарса, Ж-П. Шанжё, К.В. Анохина, А.М. Иваницкого или В.Я. Сергина; в психологии Л.В. Веккер — работ в этом направлении много, они разного уровня и проработанности — перечисляю не все то что мне было доступно и только то что можно с полным правом назвать проработанной целостной концепцией (с некоторой осторожностью — теорией).

К слову. В тексте под названием "ПВОТЧ" (Принципиальные вопросы общей теории чакр и тантрическая концепция тела) высказывается мнение, что индусы Праной называли то самое возбуждающее воздействие, которое ретикулярная формация оказывает на мозг.

Работа, изданная уже более полувека назад (1973)

Менее полувека назад
Вы как раз и не правы. Вы посмотрите на др. работы. [3] только их продолжение, промежуточный итог. Любая НИР не делается за месяц, а учитывая проделанный объем… И не так быстро пишется, а если учесть работу с редакцией. То надо как минимум от даты публикации минусовать 1,5-2 года. Как-то так…
Sign up to leave a comment.

Articles