Pull to refresh

Comments 157

> все происходящее с нами получает оценку «хорошо – плохо», память фиксирует происходящее с учетом того как меняется наше состояние, встретив знакомую ситуацию память заставляет нас повторять поступки, сулящие изменение оценки в сторону «хорошо» и блокирует действия, ведущие к ухудшению состояния. Этот великий принцип лежит в основе бихевиоризма и используется и в ряде психологических теорий, и в кибернетике в системах обучения с подкреплением.

Это совершенно не верное представление. Основываясь на это можно создать не более, чем гомеостат или некое упрощенное поведение бактерии. В этих представлениях отсутствует понятие о целенаправленности.
Целенаправленность формируется из оценки хорошо-плохо. То, что хорошо — туда и направление.
Так что думаю, автор прав, а вы — не очень)
Нет целенаправленность не формируется из оценки хорошо-плохо, это очень примитивное понимание. Оно человеку не свойственно. Тут посмотрите на философию морали, это было ясно даже более 500 лет назад. Если поведение человека зависит только от внешней среды, которая формирует у него оценку хорошо-плохо — то человека нельзя судить за преступления — ведь он всего лишь стремится к хорошему, и вынуждает его среда. Но в том, то и дело, что человек — это не тот организм, который «слепо летит на свет».
Целенаправленность формируется из оценки «хорошо-плохо». Для меня это жесткий факт.
Поведение человека зависит от внешней среды. Это для меня жесткий факт.

Преступление — это эгоистический акт. Человек же рассматривает свою деятельность и в том числе как социально-ориентированную.

Совершение преступление — это либо действительно более лучший, с точки зрения индивида акт, либо следствие недостаточного опыта индивида.

Могу с примерами.
Поддерживаю оба жёстких факта, правда нужно учесть, что оценка «хорошо-плохо» не однозначна, например при рассмотрении краткосрочной и долгосрочной перспективы — для одних краткосрочная имеет больший приоритет, для других долгосрочная. Или даже в одних условиях больший приоритет имеет краткосрочная, в других — долгосрочная.

Но вообще социальная ориентированность (свойственная не только человеку) — очень интересный факт, ставящий под сомнение тезис о том, что основными инстинктами являются выживание, размножение и родительский и «целью» эволюции является создание идеального организма.
Тут я с вами согласен полностью.

Я постепенно нахожу объяснение для себя и социально-ориентированного поведения, и размножения.

Фактически это направлено на выживание себя и рода.

Если размножение — косвенно направлено и на выживание себя (в стаде легче выжить), и в старости легче будет выжить. Т.е. это как бы то ни было, «эгоистичное» поведение.

А социальное поведение направленное на выживание социума. Классический пример — бросание на амбразуру.
Но это высший пилотаж и прям очень просто не объяснить. Хотя здесь эмоциям есть место, но они подменяются не эгоистичными, а социальными:
— прыгнуть на амбразуру: +100 единиц «эмоции» социума, -50 единиц «эго»
— не прыгнуть на амбразару: -300 единиц социуму, +200 единиц «эго». В итоге срабатывает социальное действие в ущерб себе.
Извините за жесткий пример, но примерно так.

Повторюсь, для себя уяснил, что эмоция — это двигатель, причем им можно объяснить практически любое поведение человека\животного.
Можно и с примерами)
При написании коммента выше о Матросове вспоминал. И, вроде, даже у животных мире есть примеры целенаправленного самопожертвования не только для блага потомства. Интересно, есть ли примеры межвидового самопожертвования. Если есть, то можно сделать вывод, что цель эволюции — существование жизни вообще.
«есть ли примеры межвидового самопожертвования» — однозначно есть. напр., собаки спасают зачастую своих «хозяев» различной ценой. и не только своих.
Точно, даже не понимаю как в голову не пришло, хотя каждый день наблюдаю если не межвидовое самопожертвование, то готовность у нему.

Но человек исключительный случай в моём заскорузлом антропоцентрическом шовинизме: «человек — царь природы», а подданные обязанные идти на смерть ради царя, если не с радостью, то с чувством выполненного долга. Интересны же случаи самопожертвования неиерархического, если можно так выразиться, когда одна особь жертвует собой ради другой особи, не входящей в её близкий круг или не ошибочно ей воспринимаемой как таковой (различные случаи «Маугли» я склонен воспринимать как ошибку идентификации ближнего круга и/или видовой идентификации).
И в моём заскорузлом антропоцентрическом шовинизме: ТОЖЕ «человек — царь природы». Причем этот человек — Я :))

-когда одна особь жертвует собой ради другой особи, не входящей в её близкий круг — это не возможно по сути. Перед актом самопожертвования любая особь, ранее не входившая в близкий круг совершателя акта, автоматически в него входит :)

Вы совершенно правы насчет близкого круга — акт самопожертвования возможен только при условии того, что тот, ради которого он совершается, является частью совершателя или считается им таковой.

У людей подобные заблуждения сплошь и рядом и причиной тому социальность вида. У животных нет социальности; все ее проявления — дефекты особи, — поэтому любой случай межвидового самопожертвования среди животных (они есть, уверяю вас, но скорее как исключение) — это настолько отклонение, что в контексте разговора они не интересны для рассмотрения в принципе.

Повторюсь: убежден, что подвиги — порождение социальности, но не сознания.

Перед актом самопожертвования любая особь, ранее не входившая в близкий круг совершателя акта, автоматически в него входит :)

Ну да, но тогда под самопожертвованием следует понимать именно акт включения особи в ближний круг, если считать что само наличие близкого круга не сугубо эгоистично и предполагает возможность «безвозмездного оказания услуг».

«подвиги — порождение социальности, но не сознания.»

Социальность может быть сознательной, а значит и подвиги будут сознательными.
У животных нет социальности; все ее проявления — дефекты особи, — поэтому любой случай межвидового самопожертвования среди животных (они есть, уверяю вас, но скорее как исключение) — это настолько отклонение, что в контексте разговора они не интересны для рассмотрения в принципе.

Не уверен. За миллиарды лет естественной отбор может действовать не только на уровне популяций, но и на уровне экосистем. И если наличие межвидового альтруизма (определенного процента особей, способных на него) увеличит шансы данной экосистемы, то он будет возникать. Разумеется, как рецессивный признак — чтобы сохраниться в генофондах различных видов экосистемы.

В конечном итоге, все по Дарвину (даже если он сам отрицал такую интерпретацию).
Тут нет противоречия. Это называется «ассоциация себя с деятелем». Мозг принимает решение за долю секунды до того как мы это осознаем. Однако у нас создается иллюзия, что это «мое осознанное решение».

Вот объяснение (на хабре, кстати, когда-то ссылка была на это видео)
http://www.youtube.com/watch?v=uHQdAFNqe6o
К сожалению, согласен :) Сожаление от того, что если продолжать мысль, — приходишь к минимализму — весь мир есть иллюзия
«На самом деле, наш мир не такой уж большой — горы, море, пустыня, наша долина. И еще девять персонажей, включая мой собственный физический образ...»
> эмоция — это двигатель, причем им можно объяснить практически любое поведение человека\животного

Здесь вы путаете причину и следствие. Эмоция служит лишь для оценки событий.

Попробуйте почитать тогда уже один раздел, касающийся этого из моей интернет-книги

Феномен человека 2: ОСНОВЫ ОБЩЕСТВА, надо читать с начала, но в конце будет раздел «Эмоции как динамическая основа общих характеристик, на базе которых построены общественные понятия»
Вы про социальную составляющую, я про «эгоистичную» составляющую эмоций и ее роли.
Мы ведь ведем роль про «эгоистичный» ИИ, надо начать хотя-бы с этого. Несомненно, социальный ИИ это еще более высокая ступень…

«Здесь вы путаете причину и следствие. Эмоция служит лишь для оценки событий.»

Это ваше мнение.

Моя парадигма такова:

Среда (картина мира) — > Действие — > Эмоция — > Память.

Дальше действия принимаются так:

Среда (картина мира) — Память — Выбор действия на основе эмоции — Действие — (Возможно опять память).
Я тоже не согласен с эмоцией как с двигателем. Двигатель (как причина действий) — стремление достигнуть оптимального баланса положительных эмоций («чувств глубокого удовлетворения») и отрицательных. А эмоции лишь оценка результата этого «движения»
Думаю мы можем договорится с автором (Teemon и есть автор? :) — мы вас рассекретили )

и согласовать это, уточнив термины. Поменяется парадигма так (грубо, детально не думал):

Среда (картина мира) — > Событие — > Эмоциональное окрашивание — > Память + Возможность + Индивидуальность + Активность -> Действие

Причем на «Эмоциональное окрашивание» влияет также индивидуальность + активность
ОМГ, автор AlexeyR)))
Я вообще не в кухсе))
Приводим пример: (при условии, что вы НИЧЕГО не знаете про среду)

Среда — джунгли. Событие — перед вами появляется тигр. Эмоциональное окрашивание — «О, тигр, прикольно...» Эмоций 0. — Что в памяти? в памяти ничего. Окраски никакой — можно делать хоть что.

Вас кусает тигр. Вы это запомнили. В следующий раз:
Среда — джунгли. Событие — перед вами появляется тигр. Что в памяти? в памяти «Если появился тигр и укусил — то это очень плохо». Выбираем действие из памяти. в памяти ничего нет. Думаем над оптимальным действием-действие.

Мой посыл таков: эмоция уже после копания в памяти. Посмотрите на детей. Им не страшны звери и высота: потому что у них нет в памяти этих образов. Упадет или будет укушен — в след. раз появится эмоция.
Эмоциональное окрашивание — «О, тигр, прикольно...» Эмоций 0.

«Прикольно» — уже эмоция: обнаружен новый объект, влияние которого на достижение цели («выжить в джунглях») можно учитывать при планировании действий. Причём это положительная по-сути эмоция, потому что лучше иметь информацию о существовании такого объекта и учитывать его возможное влияние, чем не иметь и не учитывать вообще.
Не очень понял смысл "— >". Попробую на словах свою точку зрения изложить.

Есть среда, о состоянии которой интеллекту докладывают рецепторы. Есть цель (заданная внешне) достигнуть положительных эмоций (оценки «хорошо» — алгоритм оценки также внешний) от среды. Есть заданный внешне набор возможных воздействий на среду посредством исполнительных устройств. Интеллект побуждает совершать исполнительные устройства совершать действия. Действия порождают изменения среды и, как следствие, эмоций (оценки её состояния). Задача интеллекта — найти причинно-следственные связи между возможными действиями и их следствиями — эмоциями и предпринимать только те, которые способствуют положительным эмоциям.
Впрочем да, я про социальную составляющую, что несомненно более высокая ступень для ИИ.

Что же касается вами названного «эгоистического ИИ» — то вы просто сворачиваете его до физических окружающих условий. В то время как для социальных я различаю:

Во-первых, определим какие могут быть “Окружающие условия” в обществе:
1. Социальные (Политические)
— Законодательные;
— Моральные;
— Эстетические;
2. Физические (Экономические)


И тут вопрос этики — создание такого ИИ — должно быть запрещено :)
Я хочу сказать что фактически все окружающие условия это «физически окружающие условия», т.е. даже перечисленные вами, законодательные, моральные и тд — это все «состояние среды, в которую помещен организм», не более.
В контексте архитектуры и структуры ИИ я не хотел бы подниматься так высоко до моральных и эстетических условий, мне бы создать таракана, который действует мудро…
В целом же, пробежался по вашей статье — я согласен с природой эмоций, описываемой вами.
Там есть важный неявный вывод: если степень индивидуальности особи будет совпадать со степенью активности — то эмоционального окрашивания не будет. Правда это вырожденный случай, т.к. особь все-таки стремится выскочить из «скуки» путем увеличения своей активности, а это ведет к необходимости подтягивать свою индивидуальность до необходимого уровня — что неразрывно приводит к эмоциональности.
И какой вывод делаю из этого вывода я:
задача любого организма — поддерживать свою эмоцию на максимально высоком уровне, это так сказать «смысл жизни».
Этого же вывода я достиг и другими умозаключениями)
Минимизируя затраченные усилия, то есть максимизируя КПД «ресурсы->эмоция».
А в том то и дело, что тут уже есть несколько стратегий. Можно просто соизмерять свою активность с реальностью+возможностями, и жить прекрасно без эмоций.
И тогда (!) как раз появляется возможность создать без эмоциональный ИИ.
Не получится. Для выбора правильной активности нужна цель/оценка ситуации (опять «хорошо — плохо»), а где ее без эмоций взять?
Оценка ситуации необязательно происходит «эмоционально». Например, как сейчас агент оценивает ситуаций — существуют т.н. функции пригодности — которые требуется или минимизировать или максимизировать. На самом деле сложнее может быть могут быть пять функций пригодности, которые друг другу противоречат, но нужно найти такие условия, чтобы их согласовать.

Но если это эмоции — то это уже давно есть. А если нет — то в чем же отличие эмоций?
Функции пригодности либо сами откуда-то взялись, либо создаются адаптивно — но для достижения некой «функции более высокого уровня», которая откуда-то должна была тоже взяться. И эта лестница не может быть бесконечной. Наверное, «эмоции» — это и есть высшая «функция пригодности» для биологического существа. Возникшая в результате эволюции…
Оеёёй,… вот если бы мы умели создавать функции пригодности адаптивности, причем не параметрически, а структурно — то мы уже достаточно далеко продвинулись бы в ИИ. А так называть это эмоциями или нет… — это глубоко философский вопрос. И это при том, что философию я сильно уважаю, как начало любой мысли. Но пока уж очень отличается пожелания с реальностью… поэтому рассказы автора — для меня извините лирика, причем такая лирика — которая не приближает к реальному воплощению.

И все-таки, эмоции по мне это нечто большее — это физическое (!) ощущение… а у компьютера сейчас даже аналога такого нет… поэтому логические аспекты — не нужно считать чем то близким эмоциям…
Так и я о том же — эмоции это физическое ощущение. В информационную модель мозга они не вписываются. И именно они позволяют задать целевую функцию поведения. А программе придется хоть как-то объяснить великую цель (хотя бы «сколько угодно счастья для всех и пусть никто не уйдет обиженным» — и она радостно всем раздаст наркотики, а вокруг забора поставит пулеметы. Радостно — потому что цель будет выполнена. Это у нее вместо эмоций).
Кстати, если бы я нашёл такое решение для такой абстрактной (в момент решения, не подозревая или ещё не осознавая, что его применят и ко мне) задачи, то испытал бы довольно сильные положительные эмоции.
Не уверен, что следует эмоции считать физическими ощущениями. Эмоции вызывают изменение физического состояния человека, а не наоборот («впрыск» адреналина потому что страшно, а не страшно потому что адреналин «впрыскнулся»). Эмоция есть реакция на состояние (или всё же изменение состояния?) среды и/или внутреннего состояния.
Фактически — мерило успешности действия на отклик среды, так ведь?)
Почему в информационную модель мозга мы не можем вписать? Очень даже запросто. Выражай концентрацию жидкости числом, записывай и вуаля).
Ведь физическое ощущение — это то, что можно измерить, пощупать и тд.
Вы же не будете отрицать, что эмоции — это «высшая структура разума, витающая в эфире и вам, людишкам, этого не постичь».
А раз эмоции — в каком-то виде материя, то и смоделировать можно
Вы случайно не знаете приблизительного соответствия различных нейромедиаторов и эмоций?
По-моему если только допустить, что «кислотность» зависит не только от входов, но и от выходов.
Это не всегда вопрос приоритетов. У людей разная производительность мышления: некоторые способны смоделировать далеко вперед, некоторые — нет. На основе предполагаемой суммы испытываемых эмоций и принимается решение, как поступить. Ведь модель предполагает то, что человек испытывает эти моделируемые эмоции в данный момент и может сразу оценить (то, что человек их может испытать, моделируя, например, легко увидеть, если вспомнить, какую еду вы любите и почему: вы ассоциативно вспоминаете и чувствуете предвкушение в случае хороших воспоминаний, либо не едите в случае плохих).
> Целенаправленность формируется из оценки «хорошо-плохо»
Это извините глупость — а не факт.

> Поведение человека зависит от внешней среды.
а также зависит еще много от чего, и зависимость человека от внешней среды далеко не определяющая, начиная с уровня организма выше бактерии.

Остальное обсуждать лирика. И можно только на уровне философии. Автор не потрудился сделать не одного эксперимента и рассказывает сказки. Поэтому все это более чем умозрительные бредни. Да, они кое где имеют рациональное зерно, но они также далеки от истины как происхождения человека исходя из Библии.

И примеров не нужно — нужно хотя бы маломальское обоснование якобы «жестким фактам».
> Целенаправленность формируется из оценки «хорошо-плохо»
Это извините глупость — а не факт.


Вы станете предпринимать какие-то целенаправленные действия (то есть действия о вероятном результате которых вам известно) субъективно плохие и для себя, и для близких, и для всех социумов, в которые вы входите, и для человечества вообще, и для существования жизни, а то и мироздания в целом? Имхо, любые целенаправленные действия, предпринимаемые человеком (да и не только им), предполагают, что эти действия принесут субъективную пользу, то есть субъективную оценку «хорошо».
Если хотите серьезного обсуждения, то прочтите, что я написал лет 10 назад в своей интернет книге по этому поводу. ссылку см. выше

Вы можете привести любое действие человека с достаточными другими факторами и данными и я смогу его трактовать по системе «хорошо-плохо». Практически любое.
Я лично ставил эксперименты над собой на протяжении, наверное, недели. Я одна сплошная эмоция и действую руководствуясь только ими)))))

А не руководствуетесь ли вы желанием достигнуть положительных эмоций и избежать отрицательных?
чуть более, чем полностью)
Любое, даже самое сложное действие раскладывается на простые, а мотивом каждого является она самая — «приятная эмоция»
Это противоречит, по моему, утверждению: «действую руководствуясь только ими». Действуете вы руководствуясь мотивом их достигнуть. Правда не знаю как сюда включить действия типа «прыгать от радости» — положительная (до какого-то момента) обратная связь, самоподдерживающаяся (до разумного исчерпания ресурсов) положительная эмоция?
Присоединяюсь.
Вот пример
Удалось показать, что в рамках предлагаемой теории...

Написано в формате (в стиле) научной статьи, но при этом после фразы «удалось показать» нет ссылки. И в других местах однобокое рассмотрение / рассуждение зачастую выдается будто общепризнанный факт. Не хватает пруфлинков вместо рекламы…
Мораль — это оценка хорошо-плохо более высокого уровня чем такая оценка конкретного индивидуума. Что ему хорошо — для общества (читай — для выживания вида) может быть плохо или таковым считаться на данном этапе развития общества. Даже следование инстинкту размножения и родительскому инстинкту может считаться (и считается) плохим, хотя по меркам конкретного индивидуума оно вполне себе хорошо.
Вы бесплатно раздаете свою книгу?
Скажите пожалуйста, как в вашу теорию укладывается понятие творчества (и вообще, способность создавать новое)? Как естественный продукт мышления или что-либо иное?
Наверное, способность создавать новое — это результат деятельности, т.е. гипотеза — опыт — подтверждение. А вот с творчеством… Лично я тоже задаюсь таким вопросом.
Ничего страшного, что я не тот, кому вы задаете вопрос?)
Когда я пытаюсь анализировать свое поведение (на макроскопическом уровне), получается следующее.
— есть состояние мира, отличающееся от оптимального (для меня)
— есть действия/задачи, выполнив которые, я могу улучшить это состояние (например, пойти и напиться).
— у каждой задачи: — оценка плюсов и минусов за выполнение (как правило, сочетание удовольствия, нервов и затраченного времени — формулу придумывать лень), и, соответственно, стремление решать именно ее.
— если есть задача, решать которую хорошо, начинаю действовать в этом направлении (при каждом действии картина мира меняется).
— если таких задач нет — открываю список возможных действий, к задачам не привязанных (погулять, поспать, включить телевизор, зайти в Хабр, запустить Visual Studio...) и выбираю подходящую.
— если подходящих не обнаружено — вот тут и наступает пора для творчества. На этом этапе ИИ отказывает…

Наверное, я робот…
«Пойти и напиться» вряд ли можно считать изменением состояния мира (не считая, что где-то убыло пару бутылок), скорее изменением его восприятия, пересмотром функций эмоциональных оценок.
Нет, не забывайте для мозга — изменение состояния среды — это изменение и состояния организма, это важно! Для мозга, сознания — есть он, мозг и есть все остальное, включая мир, селезенку, сердце и руки с ногами)))
Поэтому напиться — изменить состояние мира, включая самого себя. \

А вы, Mrrl, да, робот в этом смысле))

«если таких задач нет — открываю список возможных действий, к задачам не привязанных (погулять, поспать, включить телевизор, зайти в Хабр, запустить Visual Studio...) и выбираю подходящую.»

И даже в этом случае вы выберете наиболее эмоционально высокую задачу))

Понаблюдайте-понаблюдайте
Нет, не забывайте для мозга — изменение состояния среды — это изменение и состояния организма, это важно! Для мозга, сознания — есть он, мозг и есть все остальное, включая мир, селезенку, сердце и руки с ногами)))

Тут вопрос, считать ли уровень алкоголя (кислорода, сахара, гемоглобина и т. д.) в крови входным сигналом о состоянии среды для мозга (интеллекта, сознания и т. п.), на который он может косвенным путём (обратная связь со средой) воздействовать то есть дополнительным рецептором у каждого нейрона или считать, что это его часть, которую он может в некоторых пределах модифицировать. Если первое, то возникают вопросы: а что вообще считать мозгом (интеллектом, личностью), не в анатомическом, а в структурном плане? какие ещё функции организма следует мозгом не считать? Память, например, это ещё мозг или уже среда? Есть ли для мозга качественная разница хранить данные на бумажке или в своих клетках? А распознавание зрительных и прочих образов — это ещё функция организма или уже мозга?
Особенно хорошо этот вопрос проявляется в теории множественных миров Эверетта (и ее развитии — Multiple Minds): квантовое состояние мозга определяет то, в какой Вселенной (точнее, в каком пучке Вселенных) находится его обладатель. Но какие частицы считать принадлежащими мозгу? Какие квантовые события приведут к немедленной редукции (и/или расщеплению) наблюдаемой Вселенной, а какие останутся несущественными, пока мы их не «пронаблюдаем»?
Не очень понял где тут архитектура. Как это все реализовать на практике? Запрограммировать алгоритмтически эмоции, реакции на окружение, добавить нейросетей для самообучаемости и немного случайности? Вполне может выйти, да, но в результате мы получим просто весьма сложную китайскую комнату. При бесконечной сложности алгоритма наш ИИ будет бесконечно приближатся к поведению человека, но при этом все так же будет оставатся тупой машиной, пусть и бесконечно сложной.
Неправда.
Давайте конкретики, почему это будет китайская комната? ИИ будет прекрасно знать, почему он выбрал именно это действие. Алгоритм, как раз, не предельно сложный.
Почему он будет такой же тупой?..

Вот как раз сейчас компы и другая техника — бесконечно сложная но предельно тупая.
Ну, и в конце концов, нужно ввести критерий тупости. А он — прост.
Введя аппарат «эмоций», правильности поступков, то тупость — это все, что направлено на Невыполнение\улучшение эмоции, умное поведение — то, которое направлено.
Понаблюдайте за собой, это очень интересно)))

Я вот понаблюдал, пришел к выводу, что могу объяснить практически любое поведение человека с помощью аппарата эмоций
Не будет он ничего знать. Он будет гонять туда сюда нолики и единички и делать то, что его запрограммировали делать. Это будет китайской комнатой, потому что там не будет никакого осознания происходящего. Будет просто выполнение определенного набора заранее запрограммированных действий.
Действия будут не запрограммированы. В этот момент времени ИИ выберет это действие, потому что оно ему выгоднее, в другой ситуации он выберет другое действие, потому что оно будет ему выгоднее.
Внутри будут однозначно нолики и единички. Думаете, у вас в голове не нолики и единички?..
Вначале осознания происходящего не будет.
Дайте машине опыта, обучите ее все она будет осознавать.
Если действия будут не запрограммированы то она ничего делать не будет вообще. Потому что машина способна делать только то, что её запрограммировали делать.
Если же вы предлагаете писать алгоритм, который будет дописывать сам себя по мере необходимости, то тут я сильно сомневаюсь реализуем ли такой алгоритм в нынешней парадигме.
И да, откуда вдруг может появится осознание — совершенно не ясно. Китайской комнате сколько опыта не давай, она ничего осознавать не начнет, потому что принципиально на это не способна.

Кстати в голове вовсе не нолики и еденички. Там сложные химические реакции и мозги скорее аналоговые, чем цифровые.
Не забывайте, у китайской комнаты нет эмоций. Ей извините, похрену, подали символ "┌FЬ", она нашла его в словаре, на выходе дала «WЇ▒М8».
Снабдите китайскую комнату эмоциями, аппаратом принятия решений и дайте ей возможность выдавать символы не из словаря, а те, которые она хочет, и вы увидите, что она начнет выдавать те действия, которые не прописаны в словаре, а те, которые ей «нравятся».

Сложность химических реакций конечна. Аналоговая природа, конечно есть. Но представьте, по нейрончикам тоже бегает ток!)

«Эмоции» это просто еще один модификатор. Повышает вероятность выбора одного действия, понижает вероятность выбора другого.
Как вы предлагаете дать возможность выдавать символы не из словаря? Где оно их возмет? Как оно определит какие символы нравятся, а какие нет?

И да, ток — аналоговый.
Алфавит символов конечно ограничен, но вот их сочетания ограничиваются только комбинаторикой. «Нравится или нет» определять по обратной связи со средой: «больно» — больше не выдаём такую выходную последовательность в ответ на такую входную, «приятно» — выдаём снова.

А разве ток не дискретен на уровне элементарных зарядов?
По обратной связи — это получится обычная нейросеть, каких щас вагон. Вопрос в том, что ничего нового оно делать не сможет, потому что для того, чтобы оно делало что-то новое(или реагировало в непредусмотренной ситуации), нужно запрограмировать умение делать новое.

На уровне элементарных частиц — всё дискретно)

Обычная нейросеть, каких сейчас вагон затачивается, как бы там ни было, под конкретную задачу.
Потому что невозможно сделать универсальную. Она не будет уметь ровным счетом ничего. Либо у нас должен быть алгоритм с бесконечной сложностью, включающий в себя всё.
Человек тоже не может делать «все». Он может делать только то, что в него заложено, если хотите, Богом. Мы можем шевелить руками и ногами, шевелить мозгами. Мы не можем в результате наших действий научиться летать.
Так и ИИ, управляемый процессором, не сможет научить летать системный блок. Хотя, при должном опыте, он сможет сделать устройство, которое заставит летать его системный блок… Впрочем, как и человек.
Я, конечно, понимаю, что вы имеете ввиду. Но ведь так подумать, мы на среду можем оказывать тоже не так уж много действий.
Т.е. мы можем, например, управлять, скажем 343ю мышцами. А реакций среды — миллиарды.
Т.е. в этом случае вам нужно программировать не новые действия ИИ, а реакцию среды. А вот здесь это можно делать действительно до бесконечности.
Однако, ее можно ограничить областью практического применения.
Внутреннюю секреторную функцию рассматривать не буду).
А не нужно программировать реакции среды. Нужно предоставить «зародышу» ИИ 343 «мышцы» для воздействия на среду и рецепторы (пять кажется?), получающие данные о результатах воздействия. И тогда он сам сможет строить модели среды и прогнозировать её реакцию на свои воздействия. Возможно даже, что 343+5 не потребуется, а достаточно будет 1+1 — «консоль» общения с оператором.
Можно и так. Но это не очень интересно. Почему? Потому что ИИ сформирует свою модель среду, свой мир.
Ну просто ведь нам, человекам, интересен наш мир, скажем так, наши физические законы и поведение объектов.
Поэтому напрашивается помещать ИИ в среду, которая нас окружает. Зачем нам знания, которые вывел ИИ, если их вообще не пришей к ноге рукав?..
Я уже думал, что чтобы не моделировать среду ИИ, его нужно в эту среду и поместить…
Оснащаем значит, колесиками, приделываем камеру, и отправляем изучать среду))
Кто сказал гугломобиль?
Наверное неправильно выразился. ИИ сформирует свою модель среды, но среда у нас с ним останется общая. Будет он получать данные о ней (включая её реакции на его воздействия) и воздействовать напрямую или через нас — не суть. Если мы будем искажать данные и действия, то у него получится искаженная модель, не будем — не хуже, а то и лучше нашей получится.
Вроде и мозг человека тоже «обычная нейросеть», возможности которой делать что-то новое определяются возможностями «подключенным» к ней исполнительным устройством с очень большим количеством степеней свободы — телом человека.

Раз на уровне элементарных частиц (есть ещё вроде субчастицы, но опустим для ясности) всё дискретно, то почему это нельзя эмулировать на диксретном устройстве? :)
а откуда у вас символы не из словаря? и вообще, почему вы уверены что они есть?
В-общем, символы, которые вы можете выдавать тоже конечны и ограничены словарем, хоть и большим.

Если вам в комнату будут заносить символ, и у вас будет куча выходных символов, но словаря не будет, но при этом заметив, что при определенных символах к вам заходит китайский охранник и бьет по голове кирпичом, в другом случае кормит пирожными, Вы все-таки, рано или поздно выучите-таки китайский)
Угу, выучите, в том плане что будете знать, что одна половина символов означает «удар кирпичем», а другая «вкусная пирожинка».
А больше у вас нет реакции от среды, понимаете?
А вот если с каждым символом будут заносить еще и картинку какую-либо, вот тогда вы начнете схватывать еще быстрее.
Замечу, что письменный китайский, если охранник молчать будет :)
Одним словом, есть куча задач, где проще роботу\ИИ не готовый алгоритм действий дать, а алгоритм выбора действий и способа их получения.
В-общем, удочка лучше, чем готовая рыба)
Чтобы был алгоритм выбора действий, нужно чтобы были эти самые действия. Иначе выбирать будет не из чего.
У реальных компьютеров есть возможности (взаимо)действия со средой — устройства ввода-вывода.
современный тест на искусственный интеллект для машины заключается в том, что машина с искусственным интеллектом должна суметь для себя сформулировать проблему самоосознания и сгенерировать свою теорию, что такое «Я»
Дайте амебе аппарат эмоций, механизм принятия решений, обеспечьте структуру памяти и другие «модули» — она накопит достаточно знаний, в том числе и о себе. И тогда у нее спросят, а «ты кто такой»? А она ответит, абсолютно разумно: я искусственное существо, созданное человеком.
Имелось в виду, что она (амеба) сама себя должна спросить «КТО Я?», ну и рассказать нам о этой своей проблеме. Не имеет значения каков ответ (в данном случае если мы говорим от тесте)
Но ведь любой диспетчер задач без проблем ответит, «кто я» — процесс с таким-то Id, занимающий такую-то память, потребляющий в настоящее время столько-то ресурсов процессора… Не каждый человек на такое способен.
Дело не в том, что он ответит, а в том, чтобы он САМ СЕБЕ задал вопрос «КТО Я?». Представьте, сделали вы робота, а он к вам приходит через время и спрашивает «зачем ты меня сделал, кто я» (см. фильм «Искусственный разум» да и кучу другой фантастики). Естественно он знает, что он робот. Он знает ЧТО он. Но и мы, люди, до сих пор не знаем КТО мы. Вся эта нейрофизиология и кибернетика помогает лучше понять ЧТО мы, но не КТО мы.
Мы не знаем что такое сознание, и, как не странно, это не может быть научным вопросом. Один из критериев научной истины — объективность. Но знание о себе самом (а о моем сознании кроме меня никто ничего не знает) — это субъективное, то есть ненаучное знание.

Но, тут есть момент, так же как и с тестом Тьюринга — машину можно так запрограммировать, чтобы она к вам приставала с вопросом «кто я», но на самом деле ее (машину) это не будет волновать. Таким образом, наличие у кого-то сознания недоказуемо.
В какой-то мере это тот же вопрос, что и с творчеством — когда машина поставит перед собой цель, непредусмотренную создателем. Когда начнет искать ответы на непредусмотренные вопросы. Когда начнет искать закономерности, используя не предусмотренные изначально термины и понятия. И как мы узнаем, что это случилось.
Критерий самовопрошания «Кто я?» слишком конкретен, лучше воспользоваться абстрактным термином "самосознание"
Определитесь с термином «сознание» или «самосознание» и тогда его наличие у робота будет очень даже доказуемо.

Вы «слишком сильно» философствуете, уходите от формулировок.

В-общем, это все «высокие материи», но все это поддается и логике и научным знаниями, считаю.
Исходные формулировки будут, в любом случае, включать в себя базовые, «общеизвестные» (интуитивные если хотите) понятия. Одним из таких понятий является «сознание». Дать определение этому через что-то еще более простое, по-моему не получится. Из-за этого, собственно, и возник тест Тьюринга.
Готов поспорить, но Вы в своей жизни все свои действия выполняете так сказать «запрограммировано».
А вы откуда узнаете, что у него внутре? Может он из ноликов и единичек всою религию возведет.
А будет ли китайской комнатой такая программа:
— получает на один вход последовательность символов в формате «число (операция число){0,1} эквивалентно число», которые интерпретирует как утверждения, при этом интерпретирует [0-9]+ именно как числа, а операцию как арифметическое действие. То есть программа «знает», что её пытаются научить именно натуральной арифметике, которой она владеет априори.
— получает на другой вход последовательность символов в формате «число (операция число){0,1}», которые интерпретирует как вопрос об эквивалентности последовательности какому-то числу
— в ходе анализа утверждений «один равно 1», «два равно 2», «один плюс один равно два» и т. п. программа «понимает» что «один» это число 1, «два» — число 2, «равно» — эквивалентно, «плюс» — сложение и становится способной ответить на вопрос «один плюс один» как 2, а на вопрос «два плюс два» как 4, а также на вопросы вида «121481 плюс один».

Вроде это уже не китайская комната, а слабый ИИ или ошибаюсь и зря пишу такую программу? Там ещё много фич предполагается типа возможности привязывать несколько разных слов к одному числу («два», «двойка», «two», "二" к 2) или операции, возможность выбора из нескольких вариантов ответа, если на вход поступали противоречивые утверждения, самобучение (программа будет получать обратную связь от оператора о корректности ответов) и эксперименты (в ответ на «три плюс три» будет выдавать сумму двух случайных чисел, если не знает что такое «три», но знает что такое «плюс»). А в идеале должна превратиться в сильный ИИ исходя из гипотезы, что мироздание описывается математикой и вся математика доступна современным компьютерам через элементарные операции.
… а компьютеры могут понимать только числа.
Не знаю. Что-то в этом есть. В идее «обучать» таким образом компьютер. Проблема в том, что она именно «знает», а не знает…

Мне нравятся проекты по эмуляции работы синапсов на хардварном уровне. Там, мне кажется, больше перспектив, чем пытаться воплотить это алгоритмически… Сомневаюсь что алгоритмический подход вообще возможен, по моему любой вариант будет просто эмуляцией интеллекта.
Если мы хотим построить действительно сильный ИИ, то жесткий алгоритмический подход не поможет.
Жесткий алгоритмический подход возможен в описании механизмов мышления, т.е. получения алгоритмов.
Смотря что считать жёстким алгоритмическим подходом. Механизмы обработки входящей из среды информации и механизмы воздействия на среду в случае конкретного представителя homo sapiens можно, по-моему, считать жёстко заданным алгоритмически — в ДНК и прочих хромосомах.
Да. Но это — только часть информации и она априорна. Возможно, там (у человека) содержится информация о сосательном рефлексе, крике при голоде и тд.
Все остальное человеку придется добывать самому. В днк не записано, как ходить, как думать и как действовать. Но там записано что нужно делать, чтобы принимать решения.
Это вы можете записать и в своем коде.
Вот насчёт «как думать» есть сомнения. Судя по внешним признакам люди думают более-менее одинаково, а гениальность можно объяснить благоприятным сочетанием ДНК и среды. И варианты возможных действий (воздействий на среду и себя) тоже записаны в ДНК, причём с учётом ограничений среды. Да и сосательный рефлекс разве не запись того как действовать, если голодно и в рот что-то попало?
Гениальность можно объяснить как «90% труда и 10% гениальности», т.е. гениальность — это гораздо больший опыт, чем у других. Ну, и благоприятное сочетание среды имеет место быть.
А вот что именно записано в ДНК я точно сказать не могу)) Ну, в том смысле, что именно мы можем записать в виде кода для ИИ.
Как минимум варианты возможных действий и варианты получаемой информации. Вероятно механизмы установления ассоциативных связей между действиями и наблюдениями, а также (или прежде всего) между разными наблюдениями. Механизм решения о выборе действия для достижения цели — под вопросом. Механизм выбора цели я в рамках ИИ даже не рассматриваю, имхо, это задача не искуственного интеллекта, а искусственной личности (кстати, поэтому не считаю отрицательный результат теста Тьюринга свидетельством отсутствия интеллекта).
Ну, обучении ИИ осуществлять также как обучение новорожденного, имхо, неэффективно. Много времени тратится на формирование языка передачи знаний и, наверное, это мало связано с физическими свойствами мозга, что он до какого-то момента просто физически не способен обучиться высшей математике :) Задать язык передачи данных в понятных для компьютерах формулировках считаю вполне допустимым.

Если что-то выглядит как утка ведёт себя как интеллект, то для практических целей мы можем считать это интеллектом.
Часть априорных знаний мы действительно можем передать ИИ, но только на «свой страх и риск», т.к. возможно, среда вокруг него уже не будет соответствовать действительности. Поэтому имеет смысл передавать только те данные, которые ЗАВЕДОМО истинные.
А есть данные заведомо истинные? Другими словами познаваемо ли мироздание в принципе? Имхо, сильный ИИ ничего не должен воспринимать на веру — максимум как рабочую гипотезу, ложность которой пока не опровергается наблюдениями и экспериментами.
Вероятно поэтому у ребенка так мало априорных знаний. Мать-природа дает нам возможности обучиться всему самому, а не дает готовые знания как бегать прыгать и тд.
Можно предположить что процесс обучения отчасти состоит из перебора возможных состояний выходных сигналов (сигналов управления исполнительными устройствами) и запоминания паттернов, которые доставляют положительные эмоции («закричал — получил молока», «немного по другому закричал — стало сухо»), причём впоследствии эти паттерны отбрасываются как устаревшие. В случае ИИ мы можем вложить подобные паттерны как пока рабочие, чтобы ускорить развитие. Когда они станут противоречить субъективной картине мира ИИ их сам отбросит.
Не знаю насколько можно этому доверять, но у младенцев есть свой язык, и он для всех одинаковый.
Именно так я себе и представляю. А само мышление — это и есть, грубо говоря алгоритм выбора наилучшего действия из всех возможных. Очевидно, что тупо перебор — не лучший алгоритм, и человек им пользуется только в начале добычи знаний, потом ищет закономерности.
Я вам отмечу момент до которого ИИ не сможет обучиться высшей математике: до той поры, пока у него не будет такого жизненного опыта.
В любом случае придется учить ИИ как новорожденного: ему придется научиться арифметике, алгебре, началу анализа, геометрии и тд и тп.
Можно и внести, конечно априорные знания, но вот тут я не очень уверен..)
Новорожденного нужно сначала научить языку, на котором вы его будете учить арифметике. С ИИ этого этапа можно избежать.

А априорные знания совсем не обязательно делать аксиомами, можно их внести как рабочие гипотезы, изменения которых допустимо в свете «открывшихся обстоятельств по делу» или даже необходимо.
Алгоритмический подход возможен, т.к. это попытка смоделировать работу нейронов (сильно параллельную, но медленную) на последовательном, но быстром процессоре. Например, время распространения сигнала через слой нейронов порядка 10 мс. За это время современный проц вполне может обсчитать реакцию. скажем, 10000 нейронов. В совокупности это, конечно, медленнее, чем мозг человека, но вполне сопоставимо с мозгом рыбы или другого червяка. Специализированные процессоры еще больше позволяют уравнять шансы.
Плюс параллельная возможность работы нескольких процессоров/компьютеров.
Один слабый момент, который я увидел для «сильного» ИИ: «То есть программа «знает», что её пытаются научить именно натуральной арифметике, которой она владеет априори.»
Вы научите программу складывать не снабжая ее априорной информации о том, что она должна это делать. Вот это будет сильный ИИ, я тоже хочу сделать такого.
Вы лучше на входы подавайте «образы» — единички, двойки, апельсины. Дайте ей возможность в ответ на образ делать действие. например, нажимать кнопки «два», «три». Снабдите механизмом эмоций.
Пусть программа испытывает наслаждение при правильном решении. Пусть она запоминает решение.
Ну «а дальше все просто»: снабдите механизмом мышления и выработки знаний из знаний прога догадается, как получать вечное удовольствие)))
Думал, конечно, об этом. Но «дайте ей возможность в ответ на образ нажимать кнопки «два», «три»» означает дать ей возможность вообще решать, а нужно ли выводить или нет. Может с теоретической точки зрения и полезнее для ИИ его наказывать, если он игнорирует вопросы, но я решил слишком много воли ему не давать что он должен понимать, что на них нужно отвечать, ну а раз есть одно «должен», то почему бы не быть и другому, тем более что в python ( имногих других ЯП) число основной вид примитивных данных имеющих развитую семантику однозначно «понятную» для компьютера.
Программа сможет пользоваться «врожденными» способностями к счету только если ей дать дополнительный набор действий/рецепторов — запрограммированный в «ее мире» калькулятор. Она сможет понять, что нажимая на кнопочки, она увидит ответ. Другой вариант — дать ей доступ к майнкрафтовскому миру, и пусть она лепит схемы из его элементов, в конце концов у нее получится калькулятор. Или еще что-нибудь. Даже доступ к ассемблерной команде ADD у нее может быть — но опять же, через соответствующие органы чувств.
Но реально врожденной такая возможность быть не может — хотя бы потому, что элементная база ИИ не обязана быть современным CPU, он может создаваться на более низкоуровневых элементах (опять смотрим в сторону FPGA).
Считаю, что автор бьет в точку.
Команда www.aac-lab.com/ занимается именно этими вещами. Руководитель группы написал потрясающую монографию, считаю будущее ИИ именно за этим принципом, описанным у него в книге. Прочитал «захлебываясь» и только сильнее и сильнее утверждаясь в своих умозаключениях.
я думаю что развитие ИИ — оставит все эти эмоции, юмор и прочие веселости, просто будут развиваться алгоритмы и скорость их выполнения, думаю что если потребуется то на процессорах будущего можно сделать эмуляции всех сторон человеческого мозга.
но для решения задач ИИ не нужны все эти навороты, у машин свой путь эволюции.
В действительности, все поступки либо носят рефлекторный характер, либо диктуются памятью, которая имеет опыт поведения в подобных ситуациях.

Где здесь место экспериментам с неясным исходом, результаты которого потом фиксируются в памяти? А ведь на это способны даже животные. И не является ли «все поступки… диктуются памятью» лишь частным случаем рефлексов — условными рефлексами? Либо наоборот можно рассматривать рефлексы безусловные как часть памяти — генетическую память.
Как научиться новорожденному управлять своим телом, вообще не зная и не имея никакой информации о том, как им управлять?.. Вот вам и эксперименты с абсолютно неясным исходом.
Так я и указываю на то, что данная концепция не допускает возможность даже случайных экспериментов, не говоря об осознанных. Грубо говоря, где в ней место любопытству, как активным (пускай и случайным) действиям с целью пополнить свою память? Имхо, сильный ИИ без любопытства невозможен, а оно свойственно даже животным. Принеси кошке в комнату что-то новое для неё и она будет осматривать, обнюхивать, трогать, пробовать на вкус — возможно с целью определить какую опасность это новое может представлять для выживания, либо наоборот способствовать ему, а не исключено что и для выяснения возможности получения положительных эмоций с выживанием напрямую не связанных, либо избегания возможности получать негативные эмоции в будущем.
Тут вы очевидно правы. Алгоритм действия, как я думаю, в этом случае у животного\человека такой: видишь среду — если знаешь о ней что-то, выбирай наиболее оптимальное взаимодействие. Не знаешь — изучай\любопытствуй.
Вот и все. Не нужно прописывать заранее алгоритм взаимодействия с конкретной средой. Дайте ИИ возможность ее освоить и он сам примет решение как тут быть)
А потом еще и скажет «не суйте нос, сам разберусь, мне виднее» хх)
Скорее такой: видишь среду и знаешь приемлемые способы достижения цели (положительных эмоций) — выбирай наиболее оптимальный в данных условиях. Не знаешь — ищи. Но любопытство подразумевает и такой алгоритм: а вдруг есть более оптимальные способы чем известные, хотя и известные приемлемы. «Если бы я спрашивал людей, что им нужно, они бы сказали — лошадь побыстрее.»
UFO just landed and posted this here
Мы опять со своими эмоциями. Эмоции это очень рациональная (и логичная) вещь, и их можно понять с помощью рациональных задач, это довольно простая задача.
Человеческое поведение очень рационально и имитировать его — наверняка тоже.
Современные теории говорят о том, что оценка поведения — это основополагающая часть интеллекта — от амебы до сверхразума.
Хотите — могу с примерами.
Давайте любой человеческий поступок не сверхвысокой поведенческой сложности с достаточным объемом данных и я покажу вам где в это поступке эмоции и вы увидите, что человек действует абсолютно рационально.
Нерационально действует только в том случае, если у него отсутствуют знания.

Только я сейчас говорю про нормальные поведенческие реакции человека, основанные на эмоциях, а не те быстрые непредсказуемые решения «на эмоциях», которые совершает человек во время страха, злости и тд. Хотя это объясняется еще даже легче))
UFO just landed and posted this here
А теперь конкретики?
Вы хотите узнать, почему люди совершают глупости, почему они дают неверные ответы, в контексте приведенной статьи?

1. Не все люди дают неверные ответы.
2. Известно, что для принятия решения организму отведено определенное время. Чем оно меньше, тем больше выбрать неверное действие, дать неправильный ответ. Можете проследить за собой: если требуется решить сложную задачу, вы ищете в памяти «вглубь», копаетесь. Если нужно быстро — ищете на поверхности. В случае ошибочных ответов в данном примере — на поверхности оказываются образы, ведущие к неверному решению.
3. Более подготовленный человек, в другой среде (мне задали вопрос по аське) — более вероятно даст ответ. Имея больше опыта, знаний — больше вероятность дать верный ответ. Это абсолютно связывается с тем, что для выживания необходимо как можно больше знаний.
Эмоция — это редуцирование состояния. Иррационального поведения, имхо, просто не существует, есть поведение рациональность которого мы не понимаем в виду не совпадения критериев рациональности наблюдателя и исполнителя. А оценка результатов возможных вариантов поведения и выбор среди них наиболее оптимального, по-моему, как раз и есть главная практическая задача интеллекта.
UFO just landed and posted this here
Решать проблему выживания особи/вида/жизни — лишь заданные «извне» (ДНК) критерии оценки оптимальности тех или иных действий.

Согласен, главная задача, пускай и с натяжкой — выбор наиболее оптимальных действий с одной стороны (количественной) практически бесконечного, с другой (качественной) — сильно ограниченного. Принципом работы можно считать (рабочая гипотеза) максимизацию оценки субъективной пользы (эмоции), как у автомобиля принцип перемещения водителя и пассажиров согласно ньютоновской механике, а не какая-нибудь тирьямпампация, а вот механизм реализации принципа может быть очень разным — от нейрофизиологических реакций в мозгу до обсчёта нулей и единиц на x86 процессоре, от использования энергии сжигания органического топлива до изменения направления вектора силы тяжести.
Изначально «хорошим» и «плохим» являются оценки ощущений. На их базе формируются страхи «плохого» и предвкушения «хорошего». Поскольку эти страхи и предвкушения сами являются оценками и создают состояние «хорошо – плохо», то на их базе формируются и страхи страхов и предвкушения предвкушений.


Привязанность есть то, что сопровождает удовольствие.
Есть вещи, которые доставляют нам удовольствие, и наш ум испытывает тягу к ним. Тяготение ума к центру удовольствия и называется привязанностью. Мы никогда не привязываемся к тому, что не доставляет нам удовольствия. Другое дело, что подчас мы находим удовольствие в вещах, достаточно странных, но тем не менее сохраняется все тот же принцип: что дает нам удовольствие, к тому мы и привязываемся.
Отвращение есть то, что сопровождает страдание. Мы стараемся немедленно отдалиться от того, что причиняет нам страдание.


© Патанджали, II век до нашей эры.

Вопрос такой — эмоция это осознанное [психо-физиологическое] состояние или осознание никак не делает эмоции эмоциями?
Если считать, что животные не обладают сознанием, то эмоции никак не могут быть осознанными.
Любая последовательность событий, в которой мы принимаем участие ощущениями, восприятиями и, возможно, действиями, постепенно выпадает из сверы сознания, когда одна и та же череда событий многократно повторяется. Но она немедленно выстреливается в сознательную область, как только в процессе повтора или событие, или окружающие условия отличаются от тех, которые встечались во всех предыдущих случаях.
[...]
Мы идем привычным путем в мастерскую, переходим дорогу в знакомых местах, сворачиваем в переулки и т.д., в то время как мысли наши витают очень далеко. Но как только ситуация проявляет релевантный дифференциал — скажем, дорога кончается втом месте, где мы ее всегда переходим, так что нам приходится идти в обход — этот дифференциал и наша реакция на него вторгаются в сознание, из которого, впрочем, они быстро уходят, если дифференциал начинает повторяться.


В. Шредингер. Разум и материя.
Есть теория такая (не могу найти ссылку) что закрепление навыков, оценок, да и вообще запоминание — всегда сопровождается осознанием.

Да — и если животные не обладают сознанием — значит они не испытывают боли, а лишь только «физиологические реакции»
Каков фундамент знаний автора? Читал ли он Being No One (T. Metzinger) / The Emotion Machine (M. Minsky)?
Первый здравый коммент. Мы все доказали, показали и объяснили, создали теорию всего и все в нее уложили. И ссылка в конце на странный сайт с единственной книгой. Что это вообще? И что происходит в комментах? Единственное, что можно сказать, автор полностью укладывается в концепцию «хорошо-плохо» и даже делает еще один шаг вперед — все или ничего: «Все, даже самые мелкие детали, нашли свое очевидное объяснение».
А мне вот интересно, каковы были бы впечатления человека, находящегося перед доской с емко изложенными принципами работы его интеллекта, допустим, в виде формул?! У меня возникают двойственные чувства.
Вы имеете ввиду, какие были бы впечатления человека, которому на доске по полочкам разложили принципы работы его интеллекта?
Отвечаю — прочитав книжки, статьи и тд, и для себя во всяком случае, уяснив принцип работы моего же интеллекта (проверяю и на практике, кхе кхе) — испытываю только наслаждение и прочие положительные чувства) Я получаю новые знания, а это положительная эмоция)

Кстати, очень много поговорок и пословиц направлено на объяснение работы мозга

— Отрицательный результат тоже результат

и другие, вы запросто их вспомните
Интересен сам феномен такого эксперимента. Казалось бы, примет ли интеллект наблюдателя тот факт, что можно объяснить его действия, вплоть до дальнейших. Что он, не как казалось ранее, — самовольный аппарат, а, все-таки, подчиняющийся рамкам(!) организм. Вот представьте, что вы взглянули на такую доску, а потом при совершении поступка вам заранее(сделаем вид, что это вам показалось интересным\полезным и въелось в память(как навязчивая мелодия) так, что вы можете сделать вычисления касательно любого момента) открыты все ваши последующие действия, а, изменяя что-то, вы все равно не можете «обогнать» самого себя. Все становится предсказуемым. Я бы с ума сошел, наверное.
Получается, что ваше «схождение с ума» тоже может быть «предначертано».

Вопрос в том КТО будет смотреть на доску, КТО будет «сходить с ума»?
В каком смысле «кто»? Вы, я, кто угодно. Какая разница?
Чтобы не попасть в подобный шок я разделяю интеллект («решатель задач») и личность («постановщик задач»), т. к. считаю, что создание сильного искусственного интеллекта на порядки проще, чем создание искусственной личности, если оно вообще возможно.
Действия объяснить можно. Но предсказать нельзя. Квантовая неопределенность существует, а в такой неустойчивой системе, как мозг, она легко может усилить до принятия решения. Так что, на доске могут быть написаны причины и взаимосвязи, но следствия окажутся, скорее всего, вероятностными.
Для самоконтроля подобная доска может быть очень даже полезна. Но будет ли полезен сам этот самоконтроль, я очень сомневаюсь — он выглядит противоречащим самому предназначению разума — эффективно действовать в меняющихся условиях :)
Ну да, я тоже подумал, что этот пример как бы доказывает свою неосуществимость.
Выскажу некоторые предположения:
эмоция — нарушение суперсимметрии безразличия
эмоция — результат неопределенности достижения цели
эмоция — обобщенное состояние индивидуума
Со вторым пунктом согласиться трудно. Эмоция — результат успешного или неудачного match между ожидаемым и наблюдаемым. Так что возникает она как раз при достижении (или предвкушении достижения) цели — какой бы неопределенной эта цель ни была.
Поясню:
Когда есть алгоритм достижения цели — в эмоциях нет потребности. Когда ставится цель, а пути решения нет — возникает эмоция, т.е. выделяется энергия на решение проблемы. Также когда цель достигнута, если при ее решении устранялась неопределенность, возникает эмоция подкрепляющая решение.
В такой формулировке согласен.
Sign up to leave a comment.

Articles