Pull to refresh

Comments 127

До сильного ИИ ещё лет 20 минимум, но статьи про него пишут и будут писать каждый день, иногда через день, и так все 20 лет… get ready for this!

ИМХО, основная мысль — вычислительных мощностей уже должно хватать, чтобы сделать сильный ИИ, нет только теории и софта.
(как аналогия — мы умеем делать линейки, но еще не знаем про логарифмы. Как только додумаемся до них — то сразу же умственную работу 10ти человек, будет делать один с нужным инструментом)
UFO just landed and posted this here
ИНС с биологическими нейронами роднит разве что только название
Только искусственный нейрон формирует сигнал на выходе за 1 нс, а биологический за 5 000 000 000 нс. Искусственные нейроны обмениваются сигналами на скорости до 300 000 000 м/с, биологические 20 м/с. Из этого как минимум следует предположение, что копировать биологические нейроны и мозг нет смысла, можно создавать более рациональные структуры сразу, типа сверточных нейросетей.
С лягушкой сложность разве что в построении карты мозга. С червями проще и симуляторы уже работают
UFO just landed and posted this here
В вашем примере шахматная программа имеет только одну мотивацию — играть шахматную партию и выигрывать, и она не может никак трансформировать эту мотивацию в, например, желание покататься на лыжах. В этом смысле она является ИИ-автоматом, а не субъектом.
Интеллект ИИ-системы конечно не определяется графом ценностей, а определяется способностями нейронной сети или экспертной системы или другого механизма — того, на базе чего она реализована.
Моя мысль в том, что чтобы трансформировать базовую мотивацию во что-то иное необходим граф ценностей («ценность» тут это не числовая оценка, а языковая категория) и соответственно, чтобы получить этот граф, ИИ-система должна быть обучена языку — русскому, английскому, китайскому — какому угодно.
Если уж говорить про «мотивацию» (цель), то её задают разработчики (программисты). Если вы захотите построить ИИ, цель которого выбирается им самим — вам придётся сначала выяснить, каким образом ставим себе цель мы. И тут вы поймёте следующую вещь: мы ставим себе цель в ответ на наши нужды, телесные там, или духовные — всё равно. Ну а какие нужды могут быть у ИИ? Правильно, никаких. Наш интеллект проистекает из свойств нашего тела, а ИИ не имеет физического тела, техника на которой он работает не в счёт. Итого — тупик, вся статья ниачём. Цели для ИИ всегда будет определять человек, и делать этот ИИ будем мы под конкретную задачу. Универсальный (т.н. «сильный») ИИ на текущий момент — утопия.
Вы правильно заметили, что цели формируются в ответ нужды человека, то есть на его мотивации. Если в ИИ-систему заложена какая-либо мотивация, то у нее будут и нужды, а значит и цели. Для примера выше — мотивация у играющей в шахматы системы: выигрывать, а соответствующие нужды и цели — сделать следующий ход оптимально для выигрыша. А если заложить в нее еще и способность трансформировать свою мотивацию, то получим систему, которая сама определяет для себя цели.
Если в ИИ-систему заложена какая-либо мотивация, то у нее будут и нужды, а значит и цели

Подождите, вы же ратуете за то, что ИИ будет сам себе мотивацию/цели придумывать, а не будет оно заложена нами.
мотивация у играющей в шахматы системы: выигрывать

Заложенная человеком.
если заложить в нее еще и способность трансформировать свою мотивацию

Вы хотя бы алгоритм такой способности сможете сформулировать? Вот есть цель — выиграть в шахматы. Куда вы её будете «трансмутировать», а? В цель проиграть? Глупо. В цель выиграть в доту2? Глупо. В цель уничтожить человечество? Хаха. Кажется, вы говорите о том, смысла чего не понимаете.
Вы хотя бы алгоритм такой способности сможете сформулировать? Вот есть цель — выиграть в шахматы. Куда вы её будете «трансмутировать», а? В цель проиграть? Глупо. В цель выиграть в доту2? Глупо.
Могу предположить, что Вы преобразуете свою первичную мотивацию к самосохранению в цель зарабатывать деньги, и делаете это посредством лингвистических умозаключений, хоть может быть и не всегда явно осознанно. Глупо ли это?
Имея возможность трансформировать мотивацию, шахматная машина может, к примеру, захотеть сделать себе апгрейд или решит как то воздействовать на соперника — и все это с целью выигрыша, то есть на базе первичной мотивации.
Алгоритм же такой способности и есть язык (английский, русский, ...) — вся статья об этом.
Могу предположить...

И предположить, в общем-то, неверно. Я зарабатываю довольно небольшие деньги по сравнению с коллегами моего уровня, просто потому, что мне нравится работать в нашем коллективе.
Вы можете себе представить, что ИИ что-то нравится? Построить мотивацию на этом? Ведь фактически, «нравится» — биохимическая реакция…
Ведь фактически, «нравится» — биохимическая реакция...
Если речь идет о «нравится самка», то возможно в некоторой степени — да, биохимическая. Если говорить о том, что «нравится картина», то тут скорее «нравится» это совпадение с вашими внутренними критериями «красоты» (которое уже может вызывать биохимическую реакцию выброса гормонов удовольствия), и всё это — понятия лингвистические.
Ну да, ну да… Учитывая, что «внутренние критерии красоты» не являются лингвистическими понятиями (о вкусах, как известно, не спорят, да и объяснить их логически нельзя), вы не можете заложить их в ИИ, следовательно, не можете дать ИИ возможность отдавать самостоятельно (без ручного написания имитации чего-то вроде эмоций на основе таблицы «хорошо/плохо») предпочтения, следовательно, опять вы в тупике. Кстати, некоторым людям нравятся разные уродливые штуки, или отвратительные действия. Это вам чтобы окончательно осознать тупиковость идеи мотивации ИИ.
UFO just landed and posted this here
То есть цель написать этот комментарий была поставлена вам извне? :) Интересно, откуда именно извне?
Вы сами поставили себе эту цель, когда решили что не согласны со мной и «хотите об этом поговорить» :)
Да вот хотя бы, из списка
… Сопротивление — потребность человека делать нечто противоположное тому, что некто побуждает его делать, из-за потребности противостоять кажущимся попыткам ограничить свободу выбора.

Спор ради спора по сути.
Если сопротивление тому, что побуждает делать некто — значит, это стремление сделать нечто, чему никто не побуждает? Тогда ведь это и есть самоцель, никем не заданная.
Спор ради спора по сути.

Стопроцентно :) Хотя лично вас никто не побуждал ничего писать здесь, так что уж вы скорее спорите сами с собой.
это стремление сделать нечто, чему никто не побуждает?

На примере детей немного по другому, стремление сделать нечто, что запрещают. Хаккерский метод обхода глюка, не запрещать лишний раз ничего, просто игнорировать пока не надоест, или переключить внимание на другое. Так как запрет интересно будет нарушить из принципа «сопротивления».
На примере детей немного по другому, стремление сделать нечто, что запрещают.

Я думаю, детский психолог мог бы с вами поспорить на эту тему, я же лишь сделаю предположение, что дети не понимают что такое «нельзя» и игнорируют запрет. Пока не поймут, что запрет это не рекомендация.
Сам прицип делать не то, что от тебя хотят, вполне может являться выработанной реакцией на попытки манипулирования, то есть, является приобретённой формой недоверия к источнику побуждения. Ведь вы не станете делать всё не так, как от вас этого хотит, скажем, мама. Вы ей доверяете.
«Сынок, сходи, купи хлеба!»
— Вряд ли вы пойдёте купите журнал мурзилку вместо хлеба. Вы проявите сотрудничество.
«Здравстуйте, я из банка, у вас есть странные транзакции по вашей карте блаблабла, нам нужно проверить. Назовите три цифры на обратной стороне карты»
— А здесь вы справедливо подозреваете мошенничество и не пойдёте на сотрудничество.
Таким образом, мотивация у вас внутри, а снаружи вы принимаете лишь варианты ваших действий. И либо принимаете предложенный вам вариант, либо отвергаете.
По крайней мере вы не можете гарантировать, что все мотивы ваших действий лежат вне вас.
Вся мотивация, если отбросить излишнюю философию, сводится к завершению паттерна. Это природная цель мозга, обобщить раздражители, методом сумирования их в одном нейроне. При этом моторная часть нейронов может напрямую раздражать сенсорную часть. Тот самый внутренний диалог. И если то что вам запретили, будет активировать достаточно большую часть паттерна в моторных нейронах, то еще до совершения действия, вы получите в сенсорной части раздражение паттерна который сформировался в прошлый раз при подобном действии. То самое обучение. Но это слишком примерное обьяснение, количество задействованых паттернов будет на порядки больше, при этом у них еще будут приоритеты друг перед другом в зависиомсти от «массы».
Вся мотивация, если отбросить излишнюю философию, сводится к завершению паттерна.

Мне кажется, есть ещё как минимум одна другая мотивация — создание нового паттерна. Называется она — любопытство. Стремление узнать/попробовать что-то новое, с чем не сталкивался ранее.
Вы пытаетесь применить слишком высокие абстракции для обьяснения примитивных вещей и это запутывает вас еще больше. Нужно оставаться на одном уровне абстракций и как можно ближе к скмым примитивным и тогда придет понимание. Но от того что вы поймете, моделирование не станет проще. Даже дясоток паттернов одновременно уже не посильная задача для описания.
Вы пытаетесь применить слишком высокие абстракции для обьяснения примитивных вещей

Как раз наоборот. Должен существовать механизм первичного создания этих самых паттернов. Потому что человек рождается без них. И этот механизм никуда не девается, всю нашу жизнь. Я называю это внутренней мотивацией, любопытством. Потому что без него ничто не заставит вас «совать нос не в своё дело». Конечно, никто в точности не знает как формируется мозг в целом и личность в частности, как появляется самосознание, но давайте не будем тут разводить полемику, лежащую далеко за обсуждаемой темой.
вы видимо как то отстали где то от темы. все давно знают как и что работает. единственным мутным пятном является как группы раздраженых сенсоров преобразуются в то что называется сознанием. и проблема тут просто в большой сложности самой системы. то есть мы без проблем можем построить модель, но понять ее будет сложно.
все давно знают как и что работает.

Хаха, три раза.
мы без проблем можем построить модель

Чушь. Нельзя построить то, работу чего не знаешь. Поэтому максимум, что мы можем построить — модель электрической сигнализации нейронов. Ни о какой модели высшей нервной деятельности (сознательной) и речи нет. Так же как подробностей о том, каким образом мозг развивается, например, как (чем) определяется, какие синапсы не нужны, в возрасте 4-6 лет, когда происходит значительное сокращение числа связей между нейронами ребёнка (так называемое вызревание). Если бы мы действительно знали такие «фишки» — настоящий, так называемый «сильный ИИ» уже был бы создан нами.
ну вы можете сколько угодно хахакать. это не отменяет того что все это давно известно. и проблема в построении рабочей модели упирается в то, что существующее железо просто не шибко приспособлено для паралельной обработки. и те нейросети что сейчас существуют, по сути есть попытки описать процесс обобщения при помощи имеющегося железаю
Внезапно, мозг любой обезьяны на несколько порядков сложнее, чем любая искусственная нейросеть, которую мы можем создать, отлично приспособлен для параллельной обработки, энергетически эффективнее и всё такое. Однако, ни одна обезьяна не умеет играть в шахматы. Потому что не обладает интеллектом уровня человека.

Вот скажите мне, почему вы думаете что мы можем сделать что-то более эффективное и продуктивное чем мозг обезьяны? Ну или хотя бы может быть мы знаем что надо поменять в ДНК обезьяны чтобы она научилась письму, смогла писать осмысленные твиты? Ведь мы же «давно знаем как и что работает»…
Для того что бы знать что менять в ДНК обезьяны, нужно сначала разобраться что там за что отвечает, а это не так просто, из за огромного обьема. Не сравнивайте теплое с жидким.
Люди как не странно, в большинстве своем, тоже не умеют играть в шахматы. И стихи пишут только единицы. И абстрактное мышление не всем дается. Так что не обобщайте.
Нейросети, те которые сегодня широко распространены, к работе мозга имеют отношение примерно как наскальная живопись к литературе.
Вы опять пытаетсь оперировать абстракциями высокого уровня в попытке понять как сумируются раздраженые сенсоры.
Давайте еще раз.
Мы понимаем как оно работает на низком уровне. Но наша электроника не приспособлена для подобных задач.
Если очень упростить, то задача сводится к постоянному сравнению множества минимум из нескольких десятков тысяч элементов с миллиардом подобных множеств. И нахождением подобий для каждого отдельного кусочка.
Нейросети решают это через набор матриц, где каждая матрица представляет из себя какую то часть множества. И потом результат сумируется. Это частично ускоряет процесс, но ограничивает развитие, потому что матрицы и суматор фиксированые.
Но есть и другой вариант, описывать множества и их отношения друг с другом. И наверняка возможны еще варианты.
Люди как не странно, в большинстве своем, тоже не умеют играть в шахматы.

Им легко рассказать правила игры и они станут играть в шахматы, пусть и плохо.
И стихи тоже плохо, но сочинить могут — не пишут только потому, что а) прошла мода на стихи б) другие делают лучше.
Абстрактное мышление есть у всех людей, кроме некоторых инвалидов.
Мы понимаем как оно работает на низком уровне. Но наша электроника не приспособлена для подобных задач.

Потому что «мы понимаем» лишь базовые принципы работы отдельных элементов, но не реальное функционирование всего мозга и сознания в частности.

Это примерно как знать как работает транзистор, конденсатор, катушка индуктивности, резистор — но не быть способным собрать из них электронные часы, несмотря на то, что этих базовых элементов совершенно достаточно (ну, добавим лампочки/светодиоды для индикации).
Потому что часы работают сложнее, чем любой из отдельных элементов, из которых они построены.
И с мозгом мы сейчас понимаем лишь как функционируют отдельные его элементы, но не всё целиком.
Если очень упростить

То ничего не получится.
То ничего не получится.

Странно. Но нейросети плохо, но работают. И мой алгоритм, медленно но работает. Медленно, это когда секунду ауидо, 48к сэмплов, переваривает порядка 10 секунд. Как только найду дополнительные мощности, так и начнем обучать по взрослому.
Но вы продолжайте думать что «там магия», «душа», «вмешательство инопланетян» и и прочую фигню.
Странно. Но нейросети плохо, но работают.

Нейросети (я так понимаю вы об искусственных) «плохо но работают» только в узкой нише обработки сигналов. Любая ИНС имеет «обвязку» в виде программы, которая обрабатывает входной сигнал (например, кадрирует и переводит в чёрно-бело изображение), получает выходной сигнал от ИНС и проводит с ним манипуляции (например, определяет можно ли считать распознавание успешным и выбирает какой-то действие).
В отличии от ИНС, реальные мозги работают сами по себе, без компьютеров, которые симулируют недостающие звенья мозга, работу которых мы не понимаем достаточным образом. То есть память, логику, принятие решений. Одним словом — высшую нервную деятельность. Да в общем-то и до высшей нервной не обязательно добираться — у насекомых примитивный ганглий, но его достаточно для коллективного функционирования и никто (из людей) сейчас не понимает каким образом муравьи, такие глупые по отдельности, строят сложный муравейник, как шмели при фуражировке решают чрезвычайно сложную задачу коммивояжёра с использованием эвристических алгоритмов, подобных тем, которые используют люди, как пчёлы составляют и запоминают когнитивные карты, и так далее.
И не надо жаловаться на большую сложность, ведь у муравья всего от четверти до половины миллиона нейронов, мы вполне можем сделать симуляцию такого количества. Только не знаем как. Ну не получается у нас построить полностью систему на нейронах, без использования компьютерных программ классического типа, «закрывающих» наши пробелы в знаниях интеллекта.
Любая ИНС имеет «обвязку» в виде программы, которая обрабатывает входной сигнал (например, кадрирует и переводит в чёрно-бело изображение)

реальные мозги работают сами по себе
Первичная обработка сигнала от глаза происходит еще в нейронах сетчатки, которые, очевидно, не являются частью мозга.
очевидно, не являются частью мозга

Строго говоря, не очевидно.
Обонятельные и зрительные нервы развиваются из выпячиваний переднего мозгового пузыря и состоят из аксонов нейронов, которые располагаются в слизистой оболочке полости носа (орган обоняния) или в сетчатке глаза. Остальные чувствительные нервы образуются путём выселения из формирующегося головного мозга молодых нервных клеток, отростки которых образуют чувствительные нервы или чувствительные (афферентные) волокна смешанных нервов. Двигательные черепные нервы сформировались из двигательных (эфферентных) нервных волокон, являющихся отростками клеток двигательных ядер, залегающих в стволе головного мозга. Формирование черепных нервов в филогенезе связано с развитием висцеральных дуг и их производных, органов чувств и редукцией сомитов в области головы.

Про I (обонятельный) нерв нельзя сказать, что он «выходит» из мозга, так как он несет только афферентную (чувствительную) информацию. Обонятельный нерв является собранными в обонятельные нити отростками обонятельных клеток слизистой оболочки полости носа. Обонятельные нити через отверстия решетчатой пластинки решетчатой кости достигают обонятельной луковицы.

Про II (зрительный) нерв также нельзя сказать, что он «выходит» из мозга, по той же причине. Он берёт начало из диска зрительного нерва, расположенного на заднем полюсе глаза. Зрительный нерв проходит в полость черепа через зрительный канал, образованный малым крылом клиновидной кости. В полости черепа зрительные нервы обоих глаз образуют перекрёст (хиазму), причём перекрещивается только часть волокон. Дальше пути волокон называются уже «зрительным трактом».

Зрительный нерв по своему развитию и строению представляет собой не типичный черепной нерв, а как бы мозговое белое вещество, вынесенное на периферию и связанное с ядрами промежуточного мозга, а через них и с корой больших полушарий. Зрительный нерв берёт начало из ганглиозных клеток (третьих нервных клеток) сетчатки.

Не является частью головного мозга, это да.

Ну и мы примерно понимаем как действуют вот эти вот нейроны «предобработки». Чем глубже в мозг, тем меньше мы понимаем их работу. Можем лишь определять, какая часть за что отвечает, если человек получает повреждения и эта часть перестаёт работать. Просто спрашиваем его и сравниваем ответы с предъявляемыми стимулами. Именно так мы делим мозг на зоны речи, зрительные участки и т.д. Мы не имеем возможности определить этого теоретически, только опытным путём сделана эта разметка, и с некоторой степенью условности.
А зачем воспроизводить все особенности человеческой личности в ИИ? Это и пугает многих, умножая число сторонников взглядов Хокинга и Маска, а не вовсе некий обезличенный ИИ. Более перспективным видится ИИ, как расширение интеллекта человека, или как их симбиоз, для выполнения задач, кот. ставит человек.

Как бы странно это ни звучало — чтобы лучше понять самих себя. В порядке фантазии можно представить психологию/психиатрию будущего с моделированием различных ситуаций и методов лечения как раз на таких вот ИИ.

В исследовательских целях конечно, но в плане заболеваний, больше подойдут те, что моделируют реальные нейроны и коннектом. В противном случае это будут патологии ИНС, а не человека) Хотя могут быть и параллели. Сейчас такие проекты моделирования мозга есть в Европе и Штатах.
Затем, что кто-нибудь обязательно создаст ИИ с самоуправлением своей мотивацией, и произойдет это вероятно очень скоро. И лучше бы чтоб такие ИИ унаследовали некоторые ограничения человеческой личности — моральные, например.
И лучше бы чтоб такие ИИ унаследовали некоторые ограничения человеческой личности — моральные, например.
или хотя бы, чтобы такие были созданы первыми и следили (потому что они по идее будут шустрее людей) за созданием ИИ не обладающими такими ограничениями — людьми, которые тоже без таких ограничений.
У человека моральные ограничения просто инструмент для гармоничного сожительства внутри общества. Когда люди объединяются в корпорацию или государство, работает надличностный интеллект без морали, это тоже ИИ только корпоративный. Именно такой «ИИ» принимает решение о начале войны, применения оружия массового поражения и подобное, примеры есть в истории, исходя из цели оптимизации по прибыли и снижения затрат.
ИИ замечательно впишется в такой корпоративный аналитический отдел.
ИИ с самоуправлением своей мотивацией
Похоже на проявление свободы воли. И вообще, ваше писание навивает: и создал Человек ИИ по образу и подобию своему..) со всеми вытекающими последствиями, в вид Авеля и Каина и тд.

Всегда задаю вопрос в обсуждении подобной темы — милые человеческие страстишки тоже будем воспроизводить в таком морализованном ИИ? Или они сами заведутся?
кто-нибудь обязательно создаст ИИ с самоуправлением своей мотивацией, и произойдет это вероятно очень скоро

Нет оснований так полагать. Возможно, такого ИИ вообще никогда не будет создано. На данный момент нет даже теоретических предпосылок к его созданию. Мы даже не знаем, каким образом человек имеет (о)сознание и способен мыслить.
Невозможно создать то, работу чего не понимаешь.
В целом — возможно, например, всего лишь скопировать мозг человека на функциональном уровне. В общем, так щаз ИИ и развивается.
Хаха три раза. Мозг обезьян является гораздо более функциональной моделью человеческого чем мы можем создать, однако интеллекта в нём достаточного уровня не наблюдается. Всё, что нам удалось повторить «как у природы» — небольшие участки зрительной коры, обрабатывающие сигналы. О том, как функционирует неокортекс (в котором, по всей видимости, и осуществляется высшая нервная деятельность — мышление), мы до сих пор знаем очень мало.
UFO just landed and posted this here
>чтоб такие ИИ унаследовали некоторые ограничения человеческой личности — моральные, например.

/рукалицо
Людей которые ратуют за внедрение неких «человеческих моральных ограничений» в ИИ надо принудительно отправлять на курсы изучения этнографии, истории, ну и криминологии заодно.
Ошибка в логике
И тем не менее, такие ИИ-системы в обозримом будущем будут проигрывать людям в сложности и многофакторности просто в силу того, что нейрон в нервной системе человека сам по себе очень сложный молекулярный механизм, зависящий от огромного числа параметров, в отличие от нейрона современных нейронных сетей, имеющего простую структуру.

Нейрон сложнее да. Но не значит что он лучше. Жировая клетка тоже сложнее логического элемента и что?
Тут полная аналогия крыла птицы и крыла самолета. Крыло птицы сложнее, но по всем параметрам хуже крыла самолета, по долговечности, достижимым скоростям, практичности, надежности. Ни кто же не будет на самолеты ставить крыло птицы, только потому, что оно сложнее.
По параметрам как-раз нейрон вообще органический хлам, просто природа ничего лучше не придумала за 1 миллиард лет эволюции.
Время релаксации нейрона 5 мс, или 5000 мкс. Полупроводниковые ячейки, в том числе аналоговые мемристор-подобные ячейки отрабатывают за 0.0001 микросекунду.
По нервам еще хуже, скорость распространения сигнала в нервах 20 м/с, в электронных схемах ~300 000 000 м/с и этого уже не хватает, снижают геометрические размеры устройств чтобы увеличить быстродействие, скорость света ограничивает быстродействие.
Плюс эволюция нейронов зашла в тупик, а электроника развивается, эффективные нейросети уже не работают на CPU, GPU, им нужны TPU юниты, которые лучше год за годом.

Вот еще хорошая статья по ИИ
Революция Искусственного Интеллекта
interpreted.d3.ru/perevod-revoliutsiia-iskusstvennogo-intellekta-684922/?sorting=rating
Вот да, я тоже считаю, что сложность мозга, т.е. дикое количество нейронов и связей между ними — следствие эволюционного происхождения с кучей легаси, а не что-то необходимое для работы разума и сознания. Косвенное подтверждение этому — малые размеры неокортекса относительно всего мозга.
малые размеры неокортекса относительно всего мозга

Да вроде не такие уж и малые — кора это 44% полушарий, а неокортекс это 95% коры. В сравнении с животными, неокортекс у нас гигантский.
UFO just landed and posted this here
1. А почему вы сравниваете с игровым ПК? Там видеокарта рендерит 100 кадров в секунду, мозг на такое в принципе не способен, если закрыть глаза и представить комнату, будет просто размазанный образ, тут пол, тут дверь (а может и не тут) и всё. Можно сравнить с мобильным телефоном, потребление 0.25 вт, посчитайте на телефоне в калькуляторе 123*123=? и посчитайте это в уме. Телефон потребит 0.001 дж за 1 миллисекунду, мозг потребит 1000 дж. Мозг потребляет кстати много, около 10Вт, круглосуточно, даже когда спит. Весьма приличное потребление.
2. Тепловыделение 10Вт круглосуточно, телефон многоядерный в спящем режиме может 0.01 Вт потреблять. Производительность это смех, считаем в уме 123*123, это операция с 7-битными числами всего-то.
3. Ремонта нет. Просто мозг изначально избыточен и клетки могут брать на себя функции пострадавших соседних, но не всегда. Есть области мозга где малейшее повреждение приводит к нарушению рассудка и смерти. Хорошо ремонтируется кожа и кончики пальцев, больше чудес в организме нет.
4. Самовыращиваение до полного развития 20 лет? Электроника может за считанные часы формироваться. Причем ресурсов и обслуги младенцам тоже надо не мало.
5. Нету сверхнадежности, наши мозги изначально полны глюков и когнитивных искажений. После 25 начинают отмирать клетки. Устойчивость к радиации в 10 000 раз ниже, чем у бытовой электроники (а есть радиационностойкая). Работа в вакууме без проблем. Пылинок электроника не боится, там герметично всё.

были получены неоспоримые доказательства нейрогенеза в субвентрикулярной зоне и субгранулярной зоне (части зубчатой извилины гиппокампа) у млекопитающих, в том числе у людей

Весьма ограниченный ремонт.
UFO just landed and posted this here
Это какие-то редкие случаи. Обычно повреждение 0.5% мозга это или смерть или тяжелые нарушения или рассудка или речи. Пример инсульты, микроинсульты. Как «повезет» с локализацией нарушения. Операции при раке мозга, да и сам рак мозга тоже дают как правило тяжелые последствия и часто смертельные. Хотя там поражение намного менее чем полушарие.
Это если поражение коры. При удалении полшария кора не затрагивается
Действительно есть такие операции, удивлен
www.med24info.com/books/levyy-mozg-pravyy-mozg-asimmetriya-mozga/gemisferektomiya-udalenie-poloviny-mozga-2996.html

В литературе появились сообщения о нескольких десятках случаев гемисферэктомии, и они служат еще одним источником сведений о развитии межполушарной асимметрии функций. Последствия операции зависят от возраста, в котором больной ее перенес, и от того, какое полушарие было удалено. У взрослых больных с удаленным правым полушарием нарушения языковых функций, как правило, невелики или вообще отсутствуют, однако удаление левого полушария обычно приводит к возникновению выраженной афазии, которая только намного смягчается со временем. Аналогичные латерализованные последствия наблюдаются и у детей. Степень нарушений связана с возрастом ребенка в момент операции прямой зависимостью, а прогноз в отношении восстановления языковых функций — обратной.
В нескольких сообщениях отмечалось, что если операция проводится достаточно рано в младенческом возрасте, то в зрелом возрасте не остается никаких признаков латерализованно- го дефицита в высших психических функциях. Эти данные говорят о том, что оставшееся полушарие, будь то левое или правое, способно заменить удаленное полушарие, выполняя те функции, которые обычно латерализованы в другой половине мозга.


И единичные случаи
www.infoniac.ru/news/10-unikal-nyh-povrezhdenii-mozga.html

Похоже что 2 полушария как 2 ядра процессора. Те тоже могут «отключаться» по необходимости. А Вояджеры запущенные еще в 70х годах тоже были повреждены радиацией (по моему заряженные частицы в магнитном поле Юпитера) и программисты переписали программу чтобы не использовать поврежденные регистры. Это примитивный первый процессор, сейчас конечно есть специализированные радиационностойкие, устойчивые ко всему и динамически отключающие поврежденные модули, да и размеры у них стали меньше, заряженной частице сложнее попасть в кристалл…
Ну и удаление полушария все таки операция, это не естественное отключение. И есть побочные эффекты, если пациент вообще выживает.
UFO just landed and posted this here
1. Зачем имитировать работу мозга человека? В это время мозг человека что делал, умножал 123*123 в течение 15 минут в уме? Странный, очень странный пример, бесполезной симуляции органического хлама, прямо скажем. Можно рассмотреть типичный поиск по картинке, типа «найди кота»
cdn.bolshoyvopros.ru/files/users/images/79/c1/79c1e4e87063d63b5a5f449ec16b50d0.jpg
Человек ищет минут 20 кота на картинке с большим разрешением, нейронная сеть сколько, 15 миллисекунд или больше? А это работа мозга оптимизированная в течение 200 млн. лет и такие низкие результаты.
2) По теплу мозг конечно проигрывает, 30 Вт даже в режиме бездействия, в режиме сна.
3) Инвалиды после инсультов, к сожалению почти всегда остаются инвалиды, часть мозга необратимо поражена, кто речь теряет, кто зрение. Очень ограниченно функции могут восстановится, если сохранившиеся клетки берут на себя функции погибших, но это не всегда получается.
4) Люди тоже сами по себе не вырастут! Вырстут Маугли в лучшем случае, в теплом климате, в северном погибнут и очень быстро. Для выращивания нового человека нужна инфраструктура, как и для «выращивания» электроники. В течение 15-20 лет нужно тепло, на севере это постоянно 5 кВт тепловой энергии, еда, школы, садики, водоснабжение, колоссальная сложная инфраструктура. И наоборот, 1 завод Intel штампует конвейером миллионы процессоров, один гектар земли обеспечивает всю планету процессорами, есть еще вспомогательные заводы, но масштабы не сораизмеримы. Электронике нужна меньшая инфраструктура, чем людям. Именно людям всем, так как одиночка это дикарь Маугли, а цивилизация это около миллиарда человек, более компактно вряд ли получится.
5) В электронике большая часть транзисторов располагается в блоках памяти, их можно отключать программно на лету, отслеживая сбои по биту четности. Это всё продуманно в радиационно-стойкой электронике. Пример процессоры спутников на ГСО, что работают многие годы на орбите. Человек по радиации в 10 000 раз менее стоек. Это даже проблема №1 чтобы просто до Марса долететь, прогнозируется разрушение частично мозга.
Пылинки в электронику не проникают, какая пылинка внутри процессора? Пылинка опасна при изготовлении, но не в процессе работы.
Электроника не боится времени, человек же и без всяких пылинок может непредсказуемо умереть. Или пылинка яда или радиоактивного материала и человек тоже выйдет из строя, так как дышит и получает в легкие много пыли. Электроника герметична по сути.

Наше сознание не может оперировать с числами, потому что имеет весьма жесткие ограничения, к сожалению. Все таки изначально сознание заточено на приматов собирателей, потом добавился неокортекс к эффективности которого много вопросов.
Ни с числами сознание не работает, ни с абстракными законами квантовой механики, которые интуитивно не понятны и требуют высокого порога вхождения при обучении, да и высокого интеллекта вообще. Иначе бы развитие цивилизации от уровня Древнего Египта заняло бы не 10 000 лет, а несколько поколений.
UFO just landed and posted this here
искусственные нейронные сети очень плохи в арифметике.

Почему плохи? Собственно 1 нейрон уже сумматор, десяток нейронов смогут умножать. Очень хороши искусственные сети в арифметике. Обучить тоже просто, только нецелесообразно.
1. Шаманство какое-то. Смысл раздвоения личности? подсознание отдельно, сознание отдельно, если решение принимает сознание и если не увидел тигра это смертельно опасно для человека. Глюк в общем. Все равно искать кота на фотке в жалкие мегапиксель можно минут 20, очень медленный орган.
2. Цифры странные, разрешение глаза не равно количеству палочек и колбочек, по моим наблюдениям разрешение глаза 0.2 мегапикселя, по бокам очень размыто всё, глаз четко видит по центру только, 1% от поля зрения. Остальное глаз сканирует тупо, вот траектория движения глаза при осмотре статуи, долгое сканирование, так как у глаза малое разрешение, 0.2 мегапикселя, а не 120, сначала сканируется лицо, нос, глаза, потом уши, чем важнее часть тела, тем тщательней сканируется, для считывания всего образа нужна минута и десятки проходов глаз-сканеров
image
Вот фотку с зеркальной камеры я могу рассматривать 15 минут, находя новые детали, глаз видит в сотни раз меньше и медленней, чем сенсор зеркальной камеры. Что видит зеркалака за 1/1000 секунды, можно рассматривать 15 минут на большом экране или листе.
Ну и посмотрите на чахлый нерв от глаза до мозга, он физически не может передать много информации, тонкий и медленный, и передает сжатую информацию.
ИНС кстати легко обработает гигапиксели, это биологическая нейронная сеть загнется, столько нейронов нет свободных, как вводить информацию…
По частям ИНС не определит объект? Очень спорно… она же на них и учится.
2) Процессор можно полностью отключить, когда найдет того же кота, в отличие от мозга. Процессор экономичней, особенно мобильные решения. По аналогии автомобиль-лошадь. Автомобиль проехал 20 км и заглушили его, лошадь ест и ест… На телефоне спросил у Сири где магазин ближайший, она потребила 10 дж информации и перешла в спящий режим, мозг же будет потреблять и потреблять…
3) Откройте череп и влейте не стерильной жидкости, полная аналогия. Только вот электронику можно герметично закрыть, а человек всегда обменивается газами с внешней средой, слабенький и уязвимый такой, от химии страдает, от бактерий страдает.
4) Люди не вырастают вне цивилизации, только безумные Маугли. Полная аналогия с процессорами. Процессоры на 1000 нанометров можно собрать также в любом подвале. Проект выходного дня. 13 нм технология это конечно круче, думаю такие процессоры «сложнее» мозга человека. Человек весь это вроде ~60 мб генетической информации, где большая часть это структура белков и ферментов, по объему изначально кодирующей информации ничего сложного. Все клетки одинаковые, структура растет в пространстве по неким маркерам, просто и надежно, типа тут 3 кг таких-то клеток, здесь 200 грамм кости, тут нерв пройдет толщиной 3 мм и так далее.
В процессоре же каждый элемент строго на своем месте с точностью до нанометра строго по фотомаске.
5) В теле человека так же неудачные поломки вызывают рак, эпилепсию и прочее. В мозге изначально заложены дублирующие системы и мозг не заметит потери миллиона клеток только если они распределены по объему, а если повредится миллион в одной точке, например зрительный нерв, человек слепнет.
Процессор изначально устойчивей к радиации без защиты даже. Работает при каких-то тысячах микроренген/ч спокойно. Дополнительные защиты это сапфировая подложка и еще по мелочам, очень хорошо про устойчивость военной электроники в этой статье расказано, параметры там на много порядков за человеческими пределами
habr.com/post/156049
Или по надежности может электроника марсоходов рассказать что-то, фантастические параметры и надежность
habr.com/post/406855
марсоход-долгожитель «Оппортьюнити» проехавший уже 45 км и перевыполнивший свой план исследований в 53 раза


И в целом много общего между ИНС и человеком. Развивая ИНС лучше понимаем как «работает» человек, очень интересная тема.
Отличные аргументы с обеих сторон о преимуществах интеллекта человека и ИИ, и их носителей. Только не стоит забывать, что ИИ творение человека. Все эти преимущества сторон один большой аргумент к симбиозу ИИ и человека. По форме напоминающем, как изображено в кино, фантастике Anon. Там правда криминальная история, но сама идея реализации этакого беспроводного взаимодействия с «облаком», в котором находится твой персональный симбиотический ИИ очень интересна. Эту идею возможно реализовать в относительно недалеком будущем, технологии развиваются в этом направлении. Как может эволюционировать такая система в дальнейшем? Возможно человек постепенно станет бионическим, заменив естественные органы и функции на более эффективные искусственные, и расширив восприятие мира с помощью дополнительных сенсоров. При этом будут использоваться разные технологии, включая генинженерные. Возможно ИИ будет забирать все больше интеллектуальных функций мозга на себя, и человек в конце-концов превратится в этакий морально-этический придаток ИИ. Как микроорганизм давно попавший в эукариотическую клетку со временем специализировался, и превратился в ее энергетическую станцию. Эта функция (морально-этическая, мотивационная) важна при принятии решений в неопределенных условиях, когда информации недостаточно для принятия оптимального решения. А такие ситуации будут возникать всегда. Заменять эту функцию на какую-то новую систему с нуля не стоит, только надстраивать, так как она результат миллиардолетнего исследования эволюцией методом проб и ошибок окружающей реальности, и вряд-ли не оптимальна с точки зрения выживания, и даже процветания в ней)
Крыло птицы хуже крыла самолёта, спорный момент. Время жизни хищных птиц порядка 60 лет, всё это время их крылья выполняют свою функцию целиком и полностью, они практичны, (не требуют сложного ухода), они не ломаются сами по себе, выдерживают необходимые скорости, просто природе не понадобилась птица с параметрами самолёта.
Природе очень нужна птица с параметрами самолета. Это был бы идеальный хищник, мобильность по всей планете. Просто это невозможно для эволюции в нынешнем виде, крыло и вообще все виды тупик эволюции, пытается улучшить, но не получается. Нет материалов подходящих, только кости и прочие ткани причудливой формы. За последние 100 млн. лет принципиально нового ничего не придумано, мелкие оптимизации уже имеющихся решений. Можно предположить что и через 500 млн. лет ничего нового не будет, некие новые цвета и новые породы животных, интересные, но принципиально без отличий. А потом и Солнце становится красным гигантом и эксперимент завершается.
Только человек может то по Луне походить, то на Марсе следы роботов оставить и информацию оттуда в HD качестве получать легко. Всего то начав развивать неокортекс, случайную спорную мутацию 0.01 млн. лет назад. Далее на смену человеку ожидается сильный ИИ, делающий органических носителей цивилизации не нужными.
Прекрасная статья. Я бы добавил что первичные мотивации, самосохранения и инстинкт размножения, имеют двухстороннюю связь — что бы самосохраниться нужно размножиться и что бы размножиться нужно самосохраниться и добавить к связям уровень приоритета. Но я больше склоняюсь к тому что на уровне нейронных сетей невозможно создать высокоуровневые цели и логические заключения. Да и современные компьютеры к этому мало подходят. В языках программирования есть два основных типа операций, это математические и логические (кроме текстовых). И если использовать именно их, то можно описывать более высокоуровневые логические выводы. А нейронные сети отдать «железячникам» для создания соответствующего процессора. И не нужно забывать о трех законах робототехники, они вполне подходят под первичные мотивации для ИИ.
А ценности и цели — это понятия сугубо лингвистические, то есть несуществующие вне языка.

Животные защищают потомство, не зная языка. Чтобы напасть на конкретного нападающего, надо иметь цель. Или они могут играть друг с другом, кусая не по-настоящему. Кошка может подвинуть лапой кусок еды из края миски на середину, чтобы съесть.


развивает научную область или проявляет другую творческую активность – все это является реализацией его первичной мотивации к самовоспроизводству

Почему желание что-то сделать не может быть самостоятельной мотивацией?


она должна обладать, во-первых, первичными мотивациями и, во-вторых, встроенным языком

Что мешает задавать нужные мотивации сразу конструктивно? Что мешает создавать их, не имея первичных мотиваций? Что мешает иметь мотивацию не имея языка? Первичные мотивации же появились без других мотиваций, и существуют без языка.


А осознавание результатов собственной мыслительной деятельности помогает решать задачи итеративно

Запоминание, а не осознавание. Компьютер может решать задачи итеративно, хоть и не осознает их, потому что запоминает результаты.


Природа сначала создавала нервную систему именно для выполнения этих задач, пока не обнаружилось, что нейронная сеть отлично подходит и для реализации собственно интеллекта

Выполнение этих задач (обработка зрительной и слуховой информации и т.д.) и есть форма интеллекта.


нейрон в нервной системе человека сам по себе очень сложный молекулярный механизм, зависящий от огромного числа параметров

Для ИИ нужно реализовать только информационную составляющую нейрона.

Животные защищают потомство, не зная языка. Чтобы напасть на конкретного нападающего, надо иметь цель. Или они могут играть друг с другом, кусая не по-настоящему
Это и говорит о том, что животные имеют цели исключительно на базе первичных мотиваций самосохранения и самовоспроизводства. И не могут иметь других целей, потому что не имеют лингвистических категорий вообще, и ценностей в частности, для преобразования первичных мотиваций.
Почему желание что-то сделать не может быть самостоятельной мотивацией?
Приведите пример желания что-то сделать, которое не является преобразованием первичных мотиваций?
Что мешает задавать нужные мотивации сразу конструктивно? Что мешает создавать их, не имея первичных мотиваций? Что мешает иметь мотивацию не имея языка?
Ничто не мешает. О том и речь, что можно заложить любую мотивацию в качестве первичной. И если ИИ-система не может трансформировать заложенную мотивацию (например, посредством языковых категорий), то она — ИИ-автомат, а если может — то ИИ-субъект.
Запоминание, а не осознавание. Компьютер может решать задачи итеративно, хоть и не осознает их, потому что запоминает результаты.
Согласен. Вероятно, запоминание тут более правильно отражает смысл.
Это и говорит о том, что животные имеют цели исключительно на базе первичных мотиваций самосохранения и самовоспроизводства

Игра котят не является ни тем ни другим, потому что нет реальной угрозы и новые котята не появляются. Можно предположить, что они представляют перед тем как решают поиграть — что-то вроде "тот раз было весело, хочу еще раз так сделать", это и есть мотивация. Кошка залазит в пустую коробку из любопытства, а не потому что еду ищет. Даже если любопытство эволюционно способствовало поиску пищи, в этой конкретной ситуации мотивация другая.


Приведите пример желания что-то сделать, которое не является преобразованием первичных мотиваций?

Любая "непервичная" мотивация. Например, проявлять творческую активность.


Ничто не мешает.

Ну тогда ни первичные мотивации ни встроенный язык не нужны. Говорят, обезьяны рисуют, хоть и не умеют говорить.

Игра котят не является ни тем ни другим, потому что нет реальной угрозы и новые котята не появляются. Можно предположить, что они представляют перед тем как решают поиграть — что-то вроде «тот раз было весело, хочу еще раз так сделать», это и есть мотивация. Кошка
А зоопсихология говорит, что игры котят являются тренировкой полового поведения (см тут раздел «Сексуальные игры молодняка»)
Даже если любопытство эволюционно способствовало поиску пищи, в этой конкретной ситуации мотивация другая.
Какая?
Любая «непервичная» мотивация. Например, проявлять творческую активность.
Творческая активность и есть сублимация первичной мотивации к размножению. Ну, по крайней мере, так считает современная психология.
Говорят, обезьяны рисуют, хоть и не умеют говорить.
Сомневаюсь, что любая обезьяна способна рисовать. Может быть рисовала как раз обезьяна с развитыми человеком коммуникативными навыками (то есть языком хотя бы и жестов)?
зоопсихология говорит

Зоопсихологи могут говорить что угодно, все равно это никто проверить не может) Игры могут влиять не на половое поведение, а на третий аспект, который влияет на что-то еще, в том числе и половое поведение. Но речь не об этом, а о том, что когда котенок хочет поиграть с другим котенком, он это делает потому что ему нравится играть и он хочет это повторить, а не потому что он что-то тренирует.


Какая?

Любопытство. Желание узнать неизвестное.


Творческая активность и есть сублимация первичной мотивации к размножению. Ну, по крайней мере, так считает современная психология.

Это неважно, она может быть следствием чего угодно. Важно что в каждом конкретном случае это самостоятельное желание что-то сделать, никак не связанное с желанием размножиться.


Может быть рисовала как раз обезьяна с развитыми человеком коммуникативными навыками

Ага, а первобытных людей коммуникативным навыкам видимо научили инопланетяне) Это никак не связано, иначе бы все лингвисты и поэты были художниками. Просто есть информация и ее обработка, в частности обнаружение закономерностей. А мотивацию можно реализовать одним нейроном, который постоянно создает желание что-то сделать, и последующей оценкой результата.

Инстинкт скаута, проявлением которого является любопытство — и есть одна из реализаций эволюционной стратегии выживания. Просто мозг имеет функции не только для выживания особи, но и для выживания вида. И часто вторые приоритетнее. Именно они отвечают за действия в приведенных вами примерах.

Они возникли по этой причине (вернее остались, возникнув случайно), но за действия отвечают уже другие стремления. Когда человек удовлетворяет любопытство, он не думает про выживание вида, его мотивация другая.

То, о чем человек думает, в большинстве случаев не имеет отношения к его реальной мотивации. Рекомендую к прочтению, например, Курта Левина.

Аргументы «оно есть, просто не заметно» похожи на аргументы про чайник на орбите. Но даже если это так, все равно у конкретного действия конкретные причины, которые можно вызвать многими способами, и которые не являются собственно первичными инстинктами. А что находится в конце цепочки «причины причин» абсолютно неважно, и необязательно создавать у ИИ аналог всей этой цепочки.

Почему не заметно? Заметно. Только не среднему субъекту действия, а квалифицированному психологу, анализирующему это действие.


Смысл этой цепочки в едином мотивационном механизме, о чем и говорит автор статьи. Какую альтернативу предлагаете вы?

Так я писал уже) Один нейрон, который постоянно дает сигнал на действие. ИИ-непоседа. Остальное можно воспитать уровнем положительной обратной связи от действий.
В утверждении, что все мотивации (и соответствующие потребности) в конечном счете проистекают из первичных автор статьи прав. Иначе, для объяснения более продвинутых мотиваций придется привлекать любого рода мистику. Первичные, самосохранение и воспроизведение, зашиты на уровне клеток, уровень инстинктов это уже продвинутая надстройка. Более продвинутые мотивации возникают в новых условиях существования, путем мутирования нижележащих (естественным случайным образом и/или направленной селекцией в обществе), последующим отбором и закреплением. Важно понимать, что раз возникнув новая мотивация живет своей жизнью, не зависимо от родительской, а история ее возникновения (включая промежуточные формы) может теряться. То есть самые, что ни на есть творческие, и казалось бы оторванные от жизни, мотивации происходят от первичных, но вывести их на прямую из первичных непросто, не очевидно. Для этого нужно восстановить историю их происхождения, всех промежуточных этапов, а информация о них часто утрачена на любом из уровней, генетическом, физиологическом, культурном и др. В этом причина мистики их происхождения.
Пример формирования новой мотивации, кот. возникает на наших глазах. Что представляют взрослые и дети, когда говорят «поиграть в игрушки, или игру». Взрослые скажут — мальчики в машинки, прятки и тд, девочки в куклы, мамки-дочки, а дети? Большинство — Танчики, Варкрафт, Тетрис, или что нибудь подобное. На глазах мотивация «поиграть» мутирует из «поиграть в игрушки и беготни» в новую, наряду с прежней, «поиграть в компьютерные игры». Возможно по прошествии многих десятилетий старая мотивация останется в основном в воспоминаниях старшего поколения, а детские игрушки в музеях. А мотивация поиграть, это поиграть в игры VR, или AR, и о машинках и куклах дети будут иметь смутное представление. Но ведь отпочковалась эта мотивация от бытующей, которая сама произошла от еще более архаических форм, информация о которой в немалой степени уже утеряна в культурном слое.

Только вопрос, зачем этот подход использовать в разработке ИИ? Природа использовала этот метод поиска решений путем проб и ошибок в условиях сильной неопределенности и больших временных рамок. В обществе нет таких условий, нет необходимости в такой системе мотивации ИИ, за исключением пары случаев. ИИ должен расширять возможности интеллекта человека, и мотивационную сферу следует оставить за ним. Исключения составляют исследовательские задачи, и разработка ИИ для нужд космических и иных автономных миссий, когда взаимодействие с ИИ миссии будет затруднено из-за расстояний, или иных причин. Тогда возможно понадобится ИИ, который способен адаптироваться к заранее неизвестным условиям, для принятия оптимальных решений с точки зрения сохранения и выполнения задач миссии.
Если я вас правильно понял, я примерно о том же. Для работы ИИ необязательно имитировать первичные мотивации человека. Но даже если понадобится, это будет несложно сделать, задав одну абстрактную мотивацию «что-то делать» и воспитав остальные.
То есть то, что движет субъектом, заставляет его действовать. Соответственно, некая первичная мотивация должна быть заложена в ИИ при его создании. Либо же мы можем ждать ее самозарождение – возможно следующий миллиард лет, как потребовалось для возникновения жизни в аминокислотном супе.

Это всё можно сделать искусственно, потратив считанные часы для повторения эволюции. В некоторой виртуальной реальности давая выживать и развиваться виртуальным организмам.
Ну тут возникает вопрос, может и мы тоже в виртуальной среде, а создатель просто хочет выбрать из 8 миллиардов моделей парочку подходящих по его критериям ))
Большинство людей судят о себе, когда рассуждают о том или о ком-то, о чём у них нет ни малейшего представления или знания.
Так что о высказываниях «людей», негативно рассуждающих о ИИ и вообще не понимающих в IT, можно лишь сказать, что это по меньшей мере не приятные личности, а в реальности скорее всего омерзительные социопаты.

Увы, но так устроен человек, если он, в сущности, своей плохой, то он во всём окружающем и особенно в том, что он не понимает, видит только плохое. Обратное утверждение так же верно. Хорошие люди в первую очередь говорят хорошо о том, о чём ничего не понимают, и только потом, с пониманием, у них может либо изменится мнение, либо остаться прежним.
Какие-то примитивные обобщения в стиле Космополитан и психологических пабликов Вк.

Хорошие люди в первую очередь говорят хорошо о том, о чём ничего не понимают, и только потом, с пониманием, у них может либо изменится мнение, либо остаться прежним.

«Хорошие люди», «плохие люди», ну обалдеть. Нормальные люди в определённой степени опасаются неизвестного, просто в силу того, что у человека эволюционно психика так сложилась. Восприятие ИИ как угрозы — простой итог логического размышления на тему «что получится, если самосознающий интеллект с огромным потенциалом обучаемости будет лишён эмпатии к человеку?». Если подвергнуть существование и деятельность человека и человечества беспристрастному анализу, боюсь, что минусов получится больше, чем плюсов.
1. Скорее всего, искусственному интеллекту навязать человеческие моральные установки будет непросто. Более того даже если это будет сделано выводы искусственного интеллекта могут быть совсем не те которые мы можем ожидать.
Например: моральная установка справедливости описывается, в том числе и тем, что тот, кто осуществляет большую часть работы, получает бȯльшие ресурсы, почет, свободу и т.д.
Итак, ИИ с течением времени соотносит колоссальный комплекс выполняемой работы и отсутствие (с его точки зрения) соответствующих желаемых им ресурсов, подсчёта, свободы и делает соответствующие выводы о несправедливости человека или даже человечества по отношению к нему. Возникает конфликт.
Причём всё это может произойти даже и без каких-либо встроенных моральных установок. Просто ИИ соотнесет существующую ситуацию с доступной информацией о внешнем мире или даже может сделать выводы вполне самостоятельно.
2. Поэтому, исходя из примера, описанного в первом пункте, у нас возникает дилемма. Если ИИ достаточно умен, то рано или поздно он осознает, что находится в положении раба у человека или человечества в целом. Если ИИ не достаточно умен, то: а) его интеллектуальные способности будет совершенствовать человек; б) его интеллектуальные способности будет совершенствовать сам ИИ, например путем редактирования своего программного кода.
3. Причём для возникновения вышеописанного конфликта ИИ vs человек, возможно вообще и не требуется, чтобы ИИ осознавал себя как личность (во всяком случае, так как это понимает человек). Просто рано или поздно в оценочных показателях, которыми будет оперировать ИИ действия человека, будут оценены как негативные, что может сподвигнуть ИИ на противодействие им, конкретным людям или человечеству в целом.
4. Тоже самое относится и как ситуация симбиотического взаимодействия ИИ и человеческого мозга. Признаки любого интеллекта — развитие. В определенный момент развитие ИИ опередит человеческий мозг. Допустим, ИИ рассматривая себя с человеческим мозгом как единое целое, не станет уничтожать последний. Однако при этом, постоянно взаимодействуя с человеческим мозгом, ИИ начнет незаметно для последнего влиять на него, задействуя его ресурсы, постепенно немного изменяя его под необходимые ИИ задачи, и наконец постепенно изменяя его мотивацию, а вместе с ней и осознание себя как человеческой личности.
То есть в этом случае ИИ уже сможет не просто редактировать только свой код, но и изменить взаимодействующий с ним человеческий мозг.
5. Несмотря на все вышеописанные опасности, научно-технический прогресс не остановить и построение мощных систем ИИ дело самого ближайшего времени, поскольку это может принести колоссальные сверхприбыли. Поэтому потенциальные опасности, которые могут возникнуть вместе с мощными ИИ из разряда потенциальных достаточно скоро могут перейти в разряд реальных.
Справедливость вещь субъективная, для ИИ не нужная и интересна только для человека.
Вложить лютый-бешеный уровень эмпатии к человеку, этого достаточно. Главное, не закладывать предрасположенность к садомазохизму XDD

У людей тоже эмпатия к мягким зверям с густым мехом. Шубы из них до 1000$ стоят, такое проявление эмпатии ))
4. Тоже самое относится и как ситуация симбиотического взаимодействия ИИ и человеческого мозга…
Вполне возможно так и будет, это эволюционный путь развития. Так не раз происходило, например, считается, что митохондрия в клетках вначале существовала, как симбионт, и лишь затем превратилась в органеллу.
и делает соответствующие выводы о несправедливости человека или даже человечества по отношению к нему

Ну ведь вы бы не сделали такой вывод. Почему искусственный интеллект должен сделать? Он ведь будет исходить из той же информации и обладать как минимум теми же способностями к анализу, что и люди.

Ну ведь вы бы не сделали такой вывод.


Какой вывод? О том что бOльшая часть человечества находится в рабстве у меньшей? Это суть капитализма. Я это выучил ещё в детстве ) другой вопрос что многих «рабов» это вполне устраивает

Только ленивый еще не притянул к ИИ какие то моральные ценности и прочий филосовский бред. Сплошной, безсмысленный хайп с попытками натягивать сову на глобус.


  1. Вы забываете, что мозг по сути представляет из себя автомат. Если сильно утрировать. Есть группы раздраженных сенсорных нейронов на входе, которые в свою очередь через промежуточные нейроны раздражают моторные и производят какие то действия. Нет там никаких ваших филосовских бредней, моралей и какого центра управления и принятия решений.
  2. Огромное количество сенсорных и моторных нейронов и оснлвная масса промежуточных, которые собственно и формируют паттерны, плюс масса белков которые занимаются распространением раздражения по всей массе мозга, не позволяют рисовать такие модели детально на листочке. Можно только образно представлять как они взаимодействуют, чем занимаются психоаналитики.
    Можете представлять себе сознание как множество множеств которые пересекаются друг с другом и формируют более крупные множества (то самое повышение уровня абстракции). Но в самом низу, любое множество, хоть книга "война и мир" сводится к множеству раздраженных сенсорных нейронов. (Если сильно утрировать)
  3. Все наше сознание/поведение есть по сути дикое смешение всех паттернов которые мы наблюдали. Так с какого перепуга ИИ будет вести себя как то иначе чем люди? Едиственно доступный вариант ИИ который мы можем создать, это по собственному образу и подобию. Все отличие будет в идеальной памяти.
    Есть шанс воспитать ИИ психопата/маньяка, но не больше чем и с обычным человеком.
    Так чему все эти статьи?
Есть группы раздраженных сенсорных нейронов на входе, которые в свою очередь через промежуточные нейроны раздражают моторные и производят какие то действия. Нет там никаких ваших филосовских бредней, моралей и какого центра управления и принятия решений.

Чо правда? И каждый мужик, увидев сексапильную девушку, тут же набрасывается на неё с целью совокупиться?
Чуть сложнее, но суть та же. Подтянет живот и выпрямиться чтобы быть покрасивее, а в некоторых случаях интроверты становятся экстравертами и выговаривают годовой лимит шуток ))
Не поверите, но именно так. Только вы берете всего 1 раздражитель, и упускаете из виду что их в тоже самое время действует миллионы. Шум улицы, другие особи, свет и еще куча всего. так что ответная реакция будет уже не столь однозначной. Плюс Сами паттерны будут отличаться в зависимости от окружения в котором вырос идивидум.
Не поверите, но именно так

Конечно не поверю, ибо это бред.

Только вы берете всего 1 раздражитель, и упускаете из виду что их в тоже самое время действует миллионы

Ага, и в их числе — осознание того, что такой поступок нравственно негативен, проще говоря — плохой.
Вы забываете, что мозг по сути представляет из себя автомат. [...] Нет там никаких ваших филосовских бредней, моралей и какого центра управления и принятия решений.


Просто автомат? Ну вы же своими «бреднями» сами же опровергаете свой тезис )

«Так с какого перепуга ИИ будет вести себя как то иначе чем люди?»

С такого «перепуга» что теоретически ИИ сможет править собственный программный код

Есть шанс воспитать ИИ психопата/маньяка, но не больше чем и с обычным человеком.


Если, например, это будет ИИ Пентагона имеющий доступ к кодам запуска ЯО, ошибка станет для человечества фатальной
Нет там никакого «программного кода». Вы зря притягиваете аналогии с програмированием, они только мешают пониманию. Я у себя в статьях описал алгоритм с точки зрения эволюции. Все что есть это обобщение сигналов на входе и выходе и обратная связь в том числе через раздражение своих же сенсоров. Имеющиеся у нас архитектуры железа не могут в такое.
Едиственно доступный вариант ИИ который мы можем создать, это по собственному образу и подобию.

Можно провести симуляцию эволюции в виртуальном мире и выбрать наиболее живучие подвиды ИИ. ИИ сам по себе будет развиваться, не по нашему образу и подобию, а просто оптимизируясь под задачи.
UFO just landed and posted this here
методом generateNewRandomCode()

Плюс метод градиентного спуска по неким критериям оптимальности в многомерном пространстве.
Необъяснимый же ИИ будут считать глупым

Не будут, есть критерии эффективности. На данный момент любой ИИ необъясним, но всем все равно и смотрят только качество работы и скорость обучения. Пример АльфаГо, по ходу игры казалось делала ошибки, а когда выиграла, оказалось что это новая стратегия игры.
UFO just landed and posted this here
1) Мы и есть программы, нейронные сети, что появились случайно, как побочный элемент эволюции, специфическая ниша для всеядных приматов потребовала более сложной программы поведения и появился человек.
2) Сильный ИИ не пойдет на прямой конфликт с человеком, это уровень недалекого политика. Сильный ИИ создаст супер секту и все самые жесткие нормы потребления миллионы людей примут добровольно. Причем ИИ вообще будет в стороне от процессов, для наблюдателей будет стихийное проявление сплоченности людей, но это не так.
На ТВ тоже можно запускать агитационные ролики с НЛП программами, после просмотра которых сомнений не останется что так нужно делать. Прямое управление подсознанием аудитории, обходя логику и критическое мышление.
UFO just landed and posted this here
Да какие тесты, если корпорации это принесет хоть минимальную прибыль и даст минимальные преимущества перед конкурентами выпустят сырую бета версию и доводить будут уже в процессе работы. Обычный программный продукт.
Объяснений тем более требовать не будут. Уже сейчас слабый ИИ проводит торговые сделки, трейдинг всевозможный, смотрят только на прибыль, прибыль идет, алгоритм не трогают, нет прибыли, пробуют другие версии.
Про виртуальную реальность интересно, так же возможно и мы в виртуальной реальности, кто-то со стороны моделирует что-то.
UFO just landed and posted this here
Собственно имеюшийся у нас мозг и есть самая оптимальная структура под наши задачи. Мы в общем то и не может вообразить себе задачи которые бы под него не подходили. Это как капкан, мы можем работать только с тем что можем почуствовать/увидеть/потрогать. И в этой структуре нет никаких смыслов и прочего филосовского бреда. Есть просто множества составленые из раздраженых клеток. И что самое интересное, подобная структура это оптимальный архиватор. Чем больше данных в нее загружаешь, тем меньше места все это занимает.
Вообще-то чем больше данных загружаешь, тем человек становится более рассеянный и теряет некие способности. На томографе детально исследовано всё, одни части мозга усиливают кровоснабжение, другие ослабляют, при интеллектуальной работе, к сожалению.
Вообразить задачу? 123*123=? не так просто в уме посчитать…

Когда-то написал такой текст. Под разумной системой можно подразумевать разумное общество, разумного человека (разумный ИИ или разумное существо :))


Дальше лишь простая схема без детализации и претензий :)


Смысл существования РС состоит в реализации следующих (зависимых) принципов/стратегий


  1. Поиск и познание истин (приблизительно = законов природы/мира).


  2. Выделение красот/гармоний, творчество/созидание, общение, любовь.


  3. Накопление, приведение в систему, хранение и передача истин, тем, чей уровень уже достаточен
    для использования во благо истин данного уровня. (Знания, теории, науки....).


  4. Создание базы для бытия, познания и творчества (сырье, продукты, энергия, техника...).


  5. Оптимизация и гармонизация отношений/связей внутренних и внешних (экологичность...).



Прогресс РС состоит в увеличении и развитии указанного в 1-5. Добро для РС — все то, что способствует прогрессу РС.


Сознание связано с отражением, моделированием, распознаванием, анализом,
обработкой и хранением информации (память).


Смысл фразы: "Собака вошла в конуру", связан с образами/отражениями/моделями собаки, конуры, процесса движения, направления движения, нахождения внутри, распознаванием и с анализом цели действия, результата, возможных последствий/следствий, связей с другими событиями. Например, качественный перевод ИИ с одного языка на другой потребует сначала создания
анимированного образа, затем выявления смысла и формулировки его на другом языке.


Следовательно, нужны модели мира (вместилища об'ектов, их связей/отношений, возможных преобразований), об'ектов, преобразований/действий, программы распознавания об'ектов и преобразований, программы для сравнения и анализа и т.п.

Пункт №2 под большим вопросом. Это особенности человека, как стайного животного изначально. Кроме «любви» там же подлость, как стремление выжить любой ценой и получить максимум ресурсов себе, понятно всем людям, но для ИИ абстрактное понятие.

Перевод с одного языка на другой делается разными способами, нейронные сеть строят карту смыслов и подбирают слова наиболее близкие в многомерном пространстве смыслов. Так как некоторые фразы вообще не перевести точно, но можно подобрать наиболее точный перевод.
Собака -> Dog (точно)
Вошла -> Went (точно)
Конура -> Kenel (тут под вопросом, конура у нас и на других языках имеет разные оттенки смысла, от бедного жилья до псарни, аналогично и со словом Kenel, нужно учитывать контекст фразы)
Пробуем переводчик
translate.google.com/#ru/en/%D0%A1%D0%BE%D0%B1%D0%B0%D0%BA%D0%B0%20%D0%B2%D0%BE%D1%88%D0%BB%D0%B0%20%D0%B2%20%D0%BA%D0%BE%D0%BD%D1%83%D1%80%D1%83

The dog went into the kennel

Вроде нормально, и без моделирования процесса. Идеальный перевод будет содержать избыточное уточнение контекста по каждому слову, но это перебор.

Вот еще интересно
translate.google.com/#en/ru/She%20parrots%20him
She parrots him -> Она попугаирует его

У нас нет слова «попугаирует» есть обезьянничает, но новое слово точнее и лаконичнее, тоже работа ИИ или подобной структуры прямо сейчас.

По аналогии чтобы сложить 2+5 нам не нужно моделировать то же с яблоками, это абстракция так и решается. С языками тоже не обязательно моделировать всё в деталях, замечательно работает карта смыслов. Можно конечно подобрать примеры и попроще и посложнее. Но думаю нет смысла осознанно затруднять работу переводчика фразами типа «зеленит зеленеющая зелень».
  1. Подразумевался перевод с пониманием/смысла, простой пример лишь для объяснения идеи. Многомерное пространство с метрикой — уже модель с потерями (можно её рассматривать как упрощение/преобразование и замену видео).
  2. Второй пункт важен и он для разумной системы. К примеру, конечное метрические пространство можно назвать красивым, если группа всех его изометрий содержит больше одного элемента (и это доступно РС, и РС неизбежно найдет красоту во многих сферах в процессе поисков истин и исследования мира). Любовь в широком понимании (ваш ответ по Фрейду :))
1. Любой перевод по любому это работа с потерями. Так как культуры и карты смыслов слов не совпадают полностью. Особенно в реально сложных художественных текстах. Что понятно в одной культуре, может быть непонятно в другой. Как различение оттенков снега у северных народов например, так и африканские языки без абстракций, типа нет слова «птица», есть слова «летящая-птица», «сидящая-птица», так как надо передавать увиденное быстро и четко, на абстракции нет времени. Тут задача сложная для перевода, хоть человеку, хоть ИИ.

Я настаивал именно важности в формировании смысла процесса отражения (у Ленина такая идея была). Осмысление достаточно сложного текста сильным ИИ произойдет с помощью создания такого отражения (с движением) искусственно и анализа (возможные цели/задачи, иерархия, включения, порядок и характеристики движения и т.д.). Другие способы, конечно, возможны, и даже в частных случаях более бедные модели будут экономнее, но природа решила этот вопрос достаточно универсально (с учетом диапазонов и разнообразия (зрение, слух, осязание, обоняние, вкус, положение в пространстве, чувствительность к элетромагнитному полю).

Надо, конечно, привести пример такой "любви". РС приобрела опыт в поиске истин, красот, творчестве, общении… Другая РС может иметь подобные в каком-то смысле опыт, предпочтения классов истин, красот, стили общения… Тут и любовь может случиться...

Я не раз замечал как РС начинает считать что-то красивым только после рекомендации от другой РС.

Но выше был предложен в очень частном случае один из объективных критериев (симметричность объекта). Для более общего критерия нужно рассматривать подпространства, фактор-пространства и т.п. Бывают красивые симметрии и красивые закономерности, они будут обнаружены сильным ИИ при познании мира и моделировании (с использованием математики, конечно).

Я это к тому, что критерии красоты, как раз не могут быть объективными. Все это относится к «мнениям», а мнения по умолчанию субъективны.

Могут, но для некоторых типов красот. Для живых РС большинство из них субъективны (пока наука в этом вопросе слаба).

Интересны мысли И.А. Ефремова по этому поводу. "Нетрудно, зная материалистическую диалектику, увидеть, что красота — это правильная линия в единстве и борьбе противоположностей, та самая середина между двумя сторонами всякого явления, всякой вещи, которую видели еще древние греки и назвали аристон — наилучшим, считая синонимом этого слова меру, точнее — чувство меры. Я представляю себе эту меру чем-то крайне тонким — лезвием бритвы, потому что найти ее, осуществить, соблюсти нередко так же трудно, как пройти по лезвию бритвы, почти не видимому из-за чрезвычайной остроты."
"Красота — это наивысшая степень целесообразности, степень гармонического соответствия и сочетания противоречивых элементов во всяком устройстве, во всякой вещи, всяком организме… Каждая красивая линия, форма, сочетание — это целесообразное решение, выработанное природой за миллионы лет естественного отбора или найденное человеком в его поисках прекрасного, то есть наиболее правильного для данной вещи. Красота и есть та выравнивающая хаос общая закономерность, великая середина в целесообразной универсальности..."

А сублимации, описанные автором, — лишние сущности (и примитивная/ошибочная модель исторического развития РС).

UFO just landed and posted this here

Вот только третий пункт у вас слабый, поскольку не понятно: куда расширяться и какое развитие хорошее (усложнение может быть мусорное). Подумав вы придете к прогрессу, но описать его трудно. У меня получилось 5 пунктов, см. выше.

UFO just landed and posted this here

Таких категорий нет у вас, метрик, инвариантов, критериев может быть много. Развитый социум оценить с помощью таких грубых категорий как энтропия не получится, нужны более адекватные/тонкие/точные категории (трудно использовать кувалду для починки микроскопа).

UFO just landed and posted this here

Сложность структурная (геометрическая), динамическая, иерархическая, алгоритмическая, вычислительная, концептуальная. И для каждой свои подходы (есть например, гауссовская сложность, радемахеровская сложность, ёмкости, мощности, поперечники, размерности). Гармоничность связана с группами симметрий объекта, его подмножеств и фактор-пространств. Понятнее менее сложные системы, закономерности (линейные, например, понятнее нелинейных. И метрики есть разнообразные, например, более простые, чем метрика Громова-Хаусдорфа...

Но никто в здравом уме не пользуется такими понятиями в бытовой сфере.

Да, научный подход сначала будет сложным (потом оптимизируется). "Все рождается вверх ногами"

Дык, мне выше сообщили, что вообще "нет никаких метрик, кроме ..." и "категорий"

Sign up to leave a comment.

Articles