Как стать автором
Обновить

Новый алгоритм позволит симулировать нейронные связи целого мозга человека на будущих экзафлопных суперкомпьютерах

Время на прочтение3 мин
Количество просмотров21K
Всего голосов 20: ↑20 и ↓0+20
Комментарии105

Комментарии 105

Первый серьёзный шаг к переносу сознания из дряхлеющего тела на цифровой носитель?
Если возможна симуляция, остаётся вопрос только со считыванием с живого мозга.
И если сейчас это пока что кажется невозможным, пройдёт лет 10, 20, 40, и кто знает… Квантовые эксабайты и эксагерцы, нанороботы и, возможно, технологии, которых мы ещё не можем представить.
Ну дайте помечтать перед сном! :-)
Ну по поводу считывания думаю если пару лет потыкать отверткой в аппарат МРТ то сложностей не возникнет.
Почему вы думаете, что симуляция работы сознания эквивалентна сознанию?
Эквивалентна ли симуляция работы холодильника работе холодильника? Если внутри холодно — эквивалентна. А если по сути, то ваш вопрос провокационен и не приведет к здоровой и полезной дискуссии, поскольку нет симуляции, которую можно было бы обсуждать, есть лишь мечты о ней и самые-самые зачатки технологий.
Равно как и нет определения сознания как такового.
НЛО прилетело и опубликовало эту надпись здесь
А что если Китайская комната зависает, когда ей задают этот вопрос?
Да.
Это какой-то новый взгляд на понятие эквивалентности.
Грубо, понятие эквивалентности применимо скорее для алгоритмов. А так как существует алгоритм, который на тех же китайских последовательностях выдаст те же ответы, что и реальный конкретный человек, то грубо да.
Вопрос не в том реальна ли Китайская комната, а в том является она философским зомби или нет.
Но тут тоже не всё однозначно, среди эквивалентных алгоритмов, могут существовать и те в процессе выполнения которых возникает сознание, и те в которых нет.
Сравните программу которая печатает таблицу умножения, и ту которая её считает.
Сознание (осознание самого себя) бесконечно далеко от алгоритмов, работающих с таблицей умножения. Вы как-то всё очень сильно всё упростили.

Если бы между объектом и его имитацией не было никакой разницы, то и слова «имитация» не существовало бы.
Но алгоритмы то существуют, только в математическом понятии этого термина.
Мы можем на самом деле имитировать один процесс только другим физическим процессом. И если у нас есть два физических процесса, результаты которых мы интерпретируем как иероглифы, то какой из них является имитацией другого?
Грубо, если мы меняем химический состав ионов в мозге, то этот процесс имитация или нет?

В каждом посте про ИИ упоминают этот совершенно бесмысленный эксперимент, хотя даже по приведённой выше ссылке на вики есть разгромная критика.

Если внутри холодно — эквивалентна.

Безусловно, это отличный способ определить подлинность холодильника. Но, как справедливо заметил комрад Zavtramen, на текущий момент для случая сознания даже не знают, что именно проверять, не говоря уже о методе.
А если по сути, то ваш вопрос провокационен и не приведет к здоровой и полезной дискуссии

Как вы только могли меня в подобном заподозрить? Мои намерения были чисты и непорочны.
Ошибка. Проводить эмуляцию вне программной среды нельзя исходя из значения самого понятия, следовательно в холодильнике холодно не будет, этого холодильника вообще не будет в физическом мире.
Любая аналогия несовершенна, так что ошибка — пытаться указать на недостатки аналогии. Я вот могу сказать, что эмуляция вовсе не обязана быть программной и вообще эмуляция и симуляция — разные понятия и мы можем уйти в дебри выяснений что же такое эмуляция и симуляция на самом деле. Но изначальный разговор ведь не об этом, правда?
А как вы отличаете, симулирует ли человек наличие у себя сознания или действительно обладает им?

Утиная нотация же. Или если с другой стороны — пока не было никаких предпосылок считать иначе. Вот сделаем симуляцию тогда и посмотрим эквивалентна или нет.

Есть тонкая грань между утиной нотацией и mock'ом. Вот, например, есть у нас такой код на питоне:


with mock.patch('__main__', 'open', mock.mock_open(data='foo')):
    with open('myfile' ,'rw') as f:
        assert f.read()  == 'foo'
        f.write('hello')

Выглядит как файл, крякает как файл, читает как файл, пишет как файл. Но файл ли это, или замаскированный mock?


Вот у меня есть ощущение, что все игры с симуляцией, которые пока что есть — это вот такие вот моки, которые "издалека похожи".

понеслась…
Стоит заметить, что рвения вступать в дискуссию на подобную тематику становится все меньше. Хотя знаний вовсе не прибавилось. Это скорее не мудрое безмолвие, а отчаянная немота. Интересно, только у меня так? Я не могу предложить даже мысленный эксперимент, который смог бы однозначно определить, будет ли копия перенос сознания на электронный носитель копией, или реально перенесенным оригиналом. И не надо о том, что с операционалистической точки зрения вопрос не имеет смысла.

Заметил подобное ощущение.


А что касается эксперимента — мне нравится проводить такой, с точки зрения копируемого человека.
Делаем копию сознания (или вообще идеальную копию вместе с телом, какая разница). Затем через время T убиваем его, при этом испытуемый знает о предстоящем. Рассмотрим ситуацию с его точки зрения — несмотря на наличие его копии, вряд ли этот факт сильно обрадует его перед смертью. С его точки зрения его собственное "Я" вполне конкретно, несмотря на наличие еще одной копии. Можно устремить время T к нулю, ничего не изменится.


С другой стороны, это во многом вопрос восприятия. Можно изменить мнение о копировании и сознании в целом, чтобы копирование ни у кого не вызывало вопросов (вне зависимости от того, как же все обстоит на самом деле). Ну или наоборот, попробовать убедить кого-нибудь, что каждую ночь он умирает.


Процитирую


Виктор Аргонов - Мы, XXII век

Просто другим стал общественный строй,
Сдвинулось в нем представление об истине,
Истина здесь — инструмент прикладной,
Служит нам, а не схоластике мысленной.


Все наши взгляды – всего лишь продукт
Наших возможностей, наших потребностей
В новых реалиях всем стало вдруг
Верить выгодней, что все мы тождественны.

Рассмотрим ситуацию с его точки зрения

А вот если рассмотрим с точки зрения копии — то все здорово, и перенос удался.

Таки да.

А если вам предложат осторожно стукнуть вас по голове, так что вы навсегда потеряете память о последнем часе жизни (или навсегда перейдёте в вегетативное состояние. Вас конечно будут убеждать, что всё рассчитано, но мало ли что может пойти не так). Вы сильно этому обрадуетесь? А если устремить силу воздействия и потерянную память к нулю?

Меня всегда радовала версия, что мозг это всего лишь приемник передатчик, а все вычисления в облаке. И чем более развит твой мозг, тем больше ты можешь посылать запросов к серваку и получать ответов. То есть все мыслительные процессы в облаке. А локально мозг пустышка. Поэтому и понять сложно как он это все делает, как думает, где находится сознание и т.д. Или как умудряется работать при сильных повреждениях.

Зачем мне мечтать о том, как мой клон будет жить в компьютере?
Затем, что он может работать за вас ;)

В ТС "Черное зеркало" это как то печально выглядело :(

Проще назвать те технологии, которые в Чёрном зеркале НЕ выглядели печально. Задача у сериала такова, чтобы показать самые мрачные варианты развития будущего.
Ну, чисто теоретически, можно выполнять процедуру без прерывания функционирования индивида, постепенно копируя органический мозг и последовательно переключая отдельные его блоки на компьютер. К концу процедуры — получаем собственно индивида (а не его копию) в компьютере.
Ага-ага, а если варить лягушку постепенно, то сложно заметить изменение между состояниями лягушки за небольшой отрезок времени, а значит вареная лягушка будет эквивалентна первоначальной.

Вообще, забавно, что людей волнует вопрос идентичности копии, но совсем не волнует, что копий можно потом сделать хоть тысячу и это приведет к чудесному юридическому коллапсу. Или вот еще интересен вопрос редактирования копии.
> если варить лягушку постепенно

Это как у Сёрла? При постепенной замене нейронов, вы в панике наблюдаете как ваше сознание сжимается и исчезает, и при этом ваше тело говорит, что всё в порядке? В этом случае, по крайней мере, можно быть уверенным в существовании души, независимой от тела, и в скором увлекательном путешествии в загробный мир.
Впрочем, аналогия с варкой лягушки подходит и к обычной жизни. Что в вас осталось от вас двухлетнего? Генный код, уже немного изменённый соматическими мутациями, метилированием и вирусами. Может быть пара воспоминаний. Какие-то навыки, выработанные в этом возрасте, и потом тысячу раз дополненные и изменённые. Но вы не знаете, что они были выработаны именно тогда. Впрочем, они всё равно перенесутся при достаточно точном копировании.
Ваши контраргументы направлены против первой части комментария Hellsy22. Но наибольший интерес представляет вторая его часть.

Допустим, мы будем постепенно переносить функции вашего мозга не в один цифровой разум, а в два. В каком из двух разумов по завершении процедуры будет себя ощущать собой тот самый Вы, что был до её начала? Ответ «в обоих», очевидно, ставит еще больший вопрос о природе сознания, который кратко может быть сформулирован следующим образом: «А что есть непрерывность сознания, и уверены ли Вы, что Вы сегодняшний, это Вы вчерашний? Или, быть может, Вы вчерашний уже мертв, и Вы сегодняшний, это лишь его копия плюс новый опыт, которая, в силу наличия воспоминаний, считает себя им?». И вопрос этот можно экстраполировать не только на вчера/сегодня, но вообще, на сейчас и мгновение назад.
Да нет там никаких проблем. Точнее их нет, если не считать, что информационное содержание сознания больше информационного содержания мозга. В других словах, если не считать сознание «чем-то бОльшим»(тм).

Подробно объяснять, извините, не буду. Можете поискать в истории постов, я уже писал на эту тему. То, что вы задали этот вопрос, свидетельствует о наличии комплекса интуитивных представлений о сознании, которые не осознаются, но служат основой для всех рассуждений о нём. Сложно даже указать на то, что эти представления есть. Вот, скажем, непрерывность сознания — что это такое для вас? Как вы отличите наличие непрерывности вашего сознания от его отсутствия?
Касательно непрерывности, я могу привести вот такую историю: лежал я недавно под седацией в кресле стоматолога и смотрел на часы на стене. Минутная стрелка периодически перепрыгивала сразу на 15 минут вперёд, хотя никаких «разрывов» в сознании я не испытывал. Где моё сознание было эти 15 минут? Где хвалёная непрерывность? Нет её.
Предположим, вы страдаете эпилепсией и чтобы вас спаси, вам провели операции по рассечению мозолистого тела, то есть разрезали мозг напополам. В результате появилось 2 личности и 2 сознания «В каком из двух разумов по завершении процедуры будет себя ощущать собой тот самый Вы, что был до её начала?»
ОМГ, а есть гарантия что мозг будет после этого _нормально_ функционировать? Связи между полушариями ведь не просто так были.
Будет. Почти. Внешне, если память мне не изменяет, это скажется на моторике — половина тела управляется одной половиной мозга, вторая половина — второй. Кроме того, действительно, формируются 2 независимых потока сознания, которые могут как работать в унисон, так и принимать кардинально противоположные решения. Кроме того, зрение расслаивается на «правое» и «левое», что приводит к различным данным наблюдений, получаемых полушариями мозга. Ну и ещё тысяча и одна мелочь в стиле «правое полушарие не умеет читать, а левое — писать».
www as2x2 com/content/eksperimentalnye-dannye
Такие операции проводились в огромных количествах. Человек после такой операции нормально дальше живет, только в его голове живут две личности

Такие операции: https://en.wikipedia.org/wiki/Corpus_callosotomy + https://en.wikipedia.org/wiki/Split-brain


The most prominent non-surgical complications of corpus callosotomy relate to speech irregularities. For some patients, sectioning may be followed by a brief spell of mutism. A long-term side effect that some patients may suffer is an inability to engage in spontaneous speech. In addition, the resultant split-brain prevented some patients from following verbal commands that required use of their non-dominant hand.[11]
Another complication is alien hand syndrome, in which the afflicted person's hand appears to take on a mind of its own.[12]

Про "две личности" не найдется обзорной статьи со статистикой?

Со статистикой не находил, но Пенроуз в своей книге ссылается на весьма занятный случай: fil.wikireading.ru/86140
А точнее, где именно это сказано?
Вообще, забавно, что людей волнует вопрос идентичности копии, но совсем не волнует, что копий можно потом сделать хоть тысячу и это приведет к чудесному юридическому коллапсу.

Людей волнует, когда юристов можно будет отправить заниматься общественно полезным трудом — прокладывать дороги, учить детей, монтировать оборудование и заниматься наукой. Настоящей, естественной. В крайнем случае, варить в кипящем масле под улюлюканье толпы.

интересен вопрос редактирования копии

Если государство захочет — отредактирует и не спросит.

Куда интереснее, является ли убийством удаление копии. И является ли убийством удаление копии данных в буффере сетевого оборудования при передаче информации по каналу.

Речь идёт не о варке лягушки по частям. Аналогия неуместна.

Замена нейронов — это, мне кажется, не совсем правильный подход. Наш разум существует на основе некоего устройства — мозга. Если у мозга изъять небольшую часть мозга — разум, как правило, не исчезнет, хотя может потерять часть функциональности. А может и не потерять. Тому есть множество подтверждений.

Но мы пока не знаем точно, что будет, если разуму, потерявшему часть мозга, на котором он исполнялся, предоставить аналогичную потерянной части искусственную часть мозга. Скажем, выращенную из его же клеток.

Сможет ли разум задействовать эту вновь обретенную «табула раса» и восстановить утраченные функции? И при этом сохранить непрерывность личности?

Если да — то проблема почти решена. Если нет — то хорошо бы понять, почему именно и как это обойти. Если возможно.
Если всегда волноваться о юридических коллапсах, то и колесо бы не надо было изобретать. Из-за него — одни сплошные коллапсы, от столкновений велосипедов с роликами, до апофеоза юридического коллапса — войны, где техника на колесах играет основную роль.
Мне, кажется, парадокс сознания в том, что после снятия копии, и её включения, копия станет самостоятельным сознанием, которое тут же начнёт развиваться независимо от оригинала.
Вы бакапы всегда так делаете? :) К концу процедуры получаем нечто с несогласованными данными.
Я имел в виду, что компьютерные блоки заменяют органические, находясь в полной связи с мозгом. На ходу куски переключаем, в общем. Замененные куски просто выводим из работы. Технология не самая простая, но возможная, в приципе.
А какие блоки вы выделяете у мозга?
Что-то типа RAID с горячей заменой.
Это не бэкап, это миграция виртуалки онлайн с одного хоста на другой.
В вашей аналогии мозг тоже должен быть «виртуалкой». А так у вас миграция физики на виртуалку получается.

Тогда уж не мозг, он то как раз физика, а сознание виртуалка. Получается что надо сделать "всего лишь" подходящий по мощностям компьютер, для того что бы она могла полноценно работать.

Сфигали?
Мозг это физика, сознание — крутящаяся поверх физики виртуалка. Как показывает практика, все эти вот случаи когда человек выживал и сохранял личность/память после травмы физики — виртуалка эта достаточно неплохо умеет переиспользовать ресурсы физики, так что сценарий с миграцией сознания онлайн, без появления копий и потери непрерывности на новоподключенные ресурсы с последующим отключением старого устройства — вполне реалистично выглядит.
Вы слишком далекоидущие выводы делаете.

ага парадокс Корабль Тесея. Я хочу чтоб меня копировали именно так.

В таком определении — незачем.
Я полагаю, речь должна вестись о интеграционном когнитивном процессе (человек + информационный клон). Мозг будет угасать, деградировать, и его функции будет плавно брать на себя информационная реализация «на железе». Между ними будет существовать постоянная и очень плотная «бесшовная» синхронизация.
Т.е. мы имеем не две независимые мыслящие единицы, а одну, просто пространственно распределённую.
Это позволит реализовывать процесс «клонирования» постепенно, замещая в первую очередь те же деградирующие когнитивные функции у старшего поколения, шаг за шагом. Интеграция и полнота «замещения» будет сильно растянута, не иметь чёткой границы.
И, возможно, в один момент (для кого-то он будет прекрасным, для других — ужасным), при смерти биологического носителя окажется, что ничего страшного… живём далее.
Не клон, а копия. По мне это вариант лучше чем тот что по умолчанию.
Чтобы после смерти осталась личность которая исполнит ваши мечты и будет жить согласно вашим принципам, это лишь вопрос личного восприятия. В Видоизмененом углероде для мафов смерть была всего лишь потерей двух дней памяти. (Они постоянно переписывали себя)
Если постепенно переносить нейроны мозга на машину и организовать сенхронизацию с человеком. Например перенести часть мозга отвечающую за обработку зрения, слуха. В таком случае самосознание наверняка останется в человеке, а если переносить дальше, и в конце концов всё, а человека ликвидировать, перенесется ли реально самосознание на машину?
А вот как раз и нейроинтерфейс подвезли. Осталось прожить достаточно долго чтобы эти проекты воплатились в жизнь и стали достаточно распространены для кармана обывателя.
Ну а пока можно начинать писать про «нейропанк» с переносом сознания из одного клона в другой и записью сознания в нейро-блокчейн )
Для симуляции мозга явно нужны специализированные процессоры, с миллионами мелких блоков, на каждый нейрон/связь.

Стоит задать ряд других вопросов. Например: какой поток данных и сколько вычислительно затратных процессов генерирует сознание стримера в ХС? а "среднего" обывателя лишенного тела, и как следствие "телесных" забот? каково реальное распределение ресурсов мозга "для обеспечения сознания" и "для обеспечение жизнедеетельности"

И первые подобные уже есть.
Вот только и такие симуляции на универсальном железе тоже очень нужны — среди прочего чтобы понять какая архитектура и характеристики нужны в аппаратных нейрочипах. Пока их делают «наобум».
Международная команда учёных создала алгоритм

https://www.frontiersin.org/articles/10.3389/fninf.2018.00002/full? Extremely Scalable Spiking Neuronal Network Simulation Code: From Laptops to Exascale Computers, Frontiers in Neuroinformatics, vol 12 2018 doi.org/10.3389/fninf.2018.00002 (+ http://www.nest-simulator.org/ "NEST is a simulator for spiking neural network models that focuses on the dynamics, size and structure of neural systems rather than on the exact morphology of individual neurons")


… For these large-scale simulations one of the main computational challenges is the high connectivity of neuronal networks. The human cortex consists of about 1010 cells, each receiving about 10^4 connections (Abeles, 1991; Stepanyants et al., 2009), which leads to an estimated 10^14 synapses. Representing each of the connections by two double precision numbers requires about 1.6 PB of main memory. To complicate things further, neurons receive only about 50 % of their connections from other nerve cells in their vicinity, while the remainder are long-range connections from various remote areas (Abeles, 1991; Braitenberg and Schüz, 1991).… Over the next decade, exascale machines will be developed that will most likely show only a moderate increase in the number of compute nodes but a significant increase in the number of threads and amount of memory per compute node (see, e.g., Dongarra et al., 2011). If neural simulators are able to fully exploit the computational power of these new machines, researchers, for the first time, will be able to simulate the full human cortex at cellular resolution.

В следующем десятилетии экзафлопсные машины (с десятками и сотнями тысяч серверов) вероятно увеличат количество памяти и потоков на узел. Если нейросимуляторы смогут воспользоваться полной вычислительной мощностью таких машин, то впервые станет возможна симуляция сетей достаточно большого размера "на клеточном" разрешении. При этом в NEST почему-то заявляют о симуляции топологии сети, а не о морфологии отдельных нейронов.


Вопрос — сколько будет стоить создание экза-флопсного суперкомпьютера в 2020, в 2030, в 2040 годах (в предположении выполнения закона Мура)? Сколько электричества он будет потреблять?


Правительственные программы "экзафлопс к 2020" вроде как заявляли об энергопотреблении в 20 МВт… https://www.nextplatform.com/2016/07/06/dreaming-100-exaflops-2030/ (и мечты про 80 МВт 100 экзафлопс в 2030).

При этом в NEST почему-то заявляют о симуляции топологии сети, а не о морфологии отдельных нейронов.

А потому что по факту с пониманием того как оно развивается и работает есть большие проблемы, и не только с морфологией и не только нейронов, там ещё астроциты, клетки Кахаля и прочие чудеса…

Просто иногда инженерный подход пересиливает математический разум, и тогда технология превращается в грёбанную религию, адепты которой верят в то, что огромный размер сети вдохнёт жизнь в их мёртвые модели нейронов :-)
Так вот котята, нельзя стать бесмертным, бесмертным можно быть только если ты создан бесмертным изначально. Для ИИ вопрос целостности сознания, копий, редактирования стоять не будет, т.к. это будет принципиально иной разум, другая прадигма сознания.
А мы, как биологический вид — обречены.
Почему это он будет принципиально иной? Он будет разработан людьми, изначально его загрузят тем же историческим опытом, что есть у людей, для него точно так же будет иметь значение формальная логика, понятия существования и несуществования, времени и пространства, познание и сотрудничество, масса всего. Этика будет немного другой, ну так и у людей тысячи разных этических систем было в истории.
badimao минуснули, вас плюсанули. Ощущение, что это было сделано на эмоциях, потому что, если быть рациональным и логичным, то в его рассуждениях нет ошибки.
Я очень много думал над этим вопросом, перечитал и пересмотрел множество произведений на эту тему, слышал разные мнения и, считаю, это КРИТИЧЕСКИ важный для выживания человечества вопрос, так что, давайте разберемся.

«этика будет немного другой»
Проблема в том, что «другой» можно разделить на разные классы. И та этика, что попадает в ваш класс «другая», может не попадать в класс «этика ИИ». Здесь badimao прав 100%: мы не знаем, какой ИИ у нас получится. Скорее всего, будут разные, но один из них вполне может оказаться с СОВСЕМ ДРУГОЙ этикой. Военный ИИ, например. Вряд-ли это будет безумный монстр типа Скайнет, скорее, нечто чрезвычайно рациональное, напоминающее ИИ из фильма «На крючке» или «Из машины».

Вторая ошибка: этические шаблоны у людей чрезвычайно размыты, люди очень плохо соотносят классы этических поступков. Например, Гитлер устроил чистки — это геноцид, а Сталин устроил чистки — это репрессии. Катынская резня — молчим в тряпочку, Освенцим — орём на весь мир, потому что наших бьют. Американцы сбросили бомбу на Херосиму, убили 100 тыс. человек — это вроде как ужас, но победителя не судят, и потом — это закончило вторую мировую войну. Неизвестно, сколько людей погибло-бы, не будь Хиросимы. Это зло или добро? Полагаю, для рационального ИИ, не являющегося продуктом жизни и развития в человеческом обществе и не являющегося человеком, будет довольно сложно научиться принимать решения за нас (а иначе зачем он нам нужен?)

Так что, даже если ИИ будет иметь лишь «немного иную» этику, то этого может быть ДОСТАТОЧНО, чтобы люди восприняли её, как нечто жутко извращённое и опасное, просто потому, что это — ИИ, а мы — люди. Врага всегда демонизируют. И не дай боже неуравновешенным людям начать демонизировать логичный и рациональный ИИ, это будет катастрофа взаимного непонимания похуже безумия второй мировой.
Так что, надо быть поаккуратнее с оценками действий того, чего мы не поняли до конца. Тем более того, чего ещё не существует. Лучше перебздеть. Хокинг, Маск, Гейтс и сотни учёных, подписавших один серьёзный документ, подтверждают.

Во-вторых, к вопросу о бессмертии.
Человечество знает только один бессмертный организм — это сама живая природа. Каждая клетка на нашей планете — прямой потомок первоклетки (клеток), из которых жизнь зародилась. Больше бессмертных существ (тем более, с оцифрованным разумом) человечество не знает. Мифы о богах и «бессмертной душе» можно воспринимать на веру, но нужно учитывать, что наука не знает о реальной структуре «души» вообще ничего. Мы не знаем, КАК работает сознание. Утверждать в такой ситуации о чем-то «истинно бессмертном» — чистая философия. Мы же говорим о бессмертном сознании, как о структуре, способной существовать вечно или хотя-бы миллиарды лет. Для этого она должна обладать, как минимум, качествами внутренней непротиворечивости и стабильности.
К сожалению, человеческое сознание нельзя назвать таковым. Те, кто утверждает, что обладает таким разумом (Шломо Элиезер, например, автор «Гарри Поттер и методы рационального мышления»), сильно лукавят. Они понятия не имеют, каково это — существовать миллиард лет. Они не отвечают на вопрос, КАК эти, несомненно, великие умы будут бороться со скукой, когда все тайны вселенной им откроются, они побывают везде и увидят всё сущее. А именно это подразумевается под «бессмертием». Что они собираются делать целую вечность? Ощущение, что эти люди вообще не думали, что говорят. Ну, или они реально какие-то иные разумы, может больше роботы, чем люди (некоторые люди реально похожи на роботов или фанатиков, их сила воли и принципы меня пугают, хотя миллионы людей ими восхищаются).

Далее… Отсутствие страха перед смертью — это пренебрежение к ней. Это не просто «немного иная этика», это принципиально иное мышление: иной подход к жизни, к смерти, целям в вечности…
Вопрос намного сложнее и глубже, чем кажется. badimao в хамской форме сказал правильные вещи (а я всегда считал, что правда важнее формы): бессмертным нельзя стать просто так, потому что хочется. То есть, можно, но придётся в корне изменить мышление, избавиться от боли в душе, от многих привязанностей, привычек и удовольствий, иначе рискуете превратиться в подобие Фауста или Дориана Грея — убегающую в нереальность от собственной нереализованности бессмертную душу. Как раз сейчас на эту тему идет гениальный фильм Спилберга «Первому игроку приготовиться», но там урезана почти вся философия, что была в книге.

Далее… Если вы думаете, что вопрос современный, то сильно ошибаетесь. Древние люди были не дураки, когда придумывали религии, богов и демонов. Даже если их не существует физически — они лезут из людей ментально. Человеческий разум — это генератор, преобразователь и вычислитель особой карманной реальности, и у каждого она «немного иная». А у некоторых — совсем иная. Представьте, что такой психопат получил бессмертие? Веселая жизнь у нас всех начнётся.
А вы, фактически, предлагаете раздавать бессмертие всем подряд, включая совершенно иную форму «жизни», которая даже не эволюционировала и «жизни не видела». Вы уверены, что она не сойдет с ума от увиденного, и не решит нас всех вырезать под корень, или не сбежит подальше, как в «Она»?

Единственный выход для создателей сознания — создавать его сразу подготовленным к бессмертию. Этаких идеальных ангелов. А таких неустойчивых, как люди — помещать в физические оболочки и давать шанс себя проявить.
Думаю, для первых ИИ их реальность будет выглядеть именно так: персональный Ад, через который придётся пройти, чтобы достичь реальности. Это будет напоминать психбольницу: излечить, подавить, социализировать. Кто знает, может дети ощущают нечто подобное, но их организм и память подавляют все отрицательные ощущения. Собственно, так и есть: любопытство — это механизм подкрепления, а многие дети из-за неудач в детстве вырастают с кучей комплексов, которые переносят в реальный мир.
И — да, такой разум будет ПРИНЦИПИАЛЬНО иным, пока не пройдет все круги созданного нами для него Ада. Кто пройдёт — попадёт в наш с вами «Рай» — доступ к физической реальности.

Кто-то скажет, что это мои выдумки, но, боюсь, эти люди просто плохо понимают, о чём идет речь, а мои «выдумки» — это скорее выводы из уже понятого.
ВАЖНО понять: разработка сознания — это НЕ написание алгоритма. ИИ нужно обучить. С нуля, как ребёнка. Он сам не обучится, как в сказке, это выдумки фантастов, «опиум для народа», и вообще безумие. «Ручное» обучение — единственный способ разработать вменяемый очеловеченный эмоциональный ИИ (а без эмоций он нас просто не поймёт), но обычно этот жуткий вопрос как-то упускается в иллюзиях технарей об ИХ, технарей, светлом будущем. Уж больно философским и фантастическим он им кажется. Зато им нравятся лживые картинки с плакатов СССР: белые халаты, умные лица и речь, высокие помыслы, всеобщее равенство и прочая иллюзорная ерунда, не имеющая к реальности никакого отношения, кроме промывки мозгов. Детям, кстати. Взрослые и так всё понимали.
Минуснули… И? Что дальше? Кому-то просто не понравилось, что я разрушил его иллюзии и он отомстил, или есть конкретные недочёты в моих рассуждениях? Будьте добры указать, с чем вы не согласны, уважаемый «минусатор»? Я таки за конструктивный диалог, а не игру в молчанку. А то зачем я это всё писал?
Ок, я понял намёк. Прошу прощения за резкость и простыню.
КРИТИЧЕСКИ важный для выживания человечества

А к чему лишняя скромность? Пишите уж сразу — «КРИТИЧЕСКИ ВАЖНЫЙ ДЛЯ СУЩЕСТВОВАНИЯ ВСЕЛЕННОЙ!»

Проблема в том, что «другой» можно разделить на разные классы
А можно и не разделять.

будет довольно сложно научиться принимать решения за нас (а иначе зачем он нам нужен?)
Ох уж эти любители пресмыкаться и перекладывать решения. ИИ нам нужен для того, чтобы выполнять часть нашей работы — водить машины, искать лекарства, заниматься строительством и производством, следить за безопасностью и т.д. и т.п.

Человечество знает только один бессмертный организм — это сама живая природа
Природа — не организм.

Они понятия не имеют, каково это — существовать миллиард лет.
Как и вы. С чего вы взяли, что проблема скуки будет хоть сколь-нибудь существенной? Человечество постоянно создает новый контент. Дай людям возможность — они и через миллиард лет будут обмениваться фотографиями котиков.

Древние люди были не дураки, когда придумывали религии, богов и демонов
Еще бы — такой действенный механизм контроля толпы еще поискать надо. Правда побочных эффектов много.

Кто-то скажет, что это мои выдумки
Да нет, это просто проецирование типовых коллективных страшилок, кое-как слепленное в форму комментария. «Ааа! Зачем жить миллиард лет, мы все сойдем с ума! И ИИ сойдет с ума!!! И всем будет плохо!!!».
Подобные статьи вводят в заблуждение, ведь это не симуляция мозга, а симуляция системы по сложности сопоставимой с частью мозга (и то не факт). Это как вместо симуляции функционирования самолета, мы симулируем какой-то случайный набор гидравлики, пневматики, электропроводки итд.
Это функциональная симуляция мозга. Если этого Вам недостаточно, ждите ещё несколько десятилетий, модель будет уточняться с ростом вычислительных возможностей. Важно то, что наконец-то возможно обрабатывать требуемое число вычислительных элементов сети за приемлемое время.
Какие именно фукнции мозга она симулирует? Тут вроде как речь о виртуальных нейронах, которые весьма далеки от настоящих нейронов. Похожесть здесь в количестве связей. Ничего не имею против построения больших НС, просто надо как-то подчериквать, что это не симуляция именно мозга человека.
Какие именно фукнции мозга она симулирует?
Приёмную, интегративную, проводниковую и передающую функции нейрона.
Тут вроде как речь о виртуальных нейронах, которые весьма далеки от настоящих нейронов.
Можете реализовать точнее в тех же объёмах памяти и вычислительной мощности?
Нам НЕ нужно полностью симулировать биологические нейроны. Каждый нейрон — живая клетка, но даже одна клетка — за пределами наших возможностей полной симуляции в обозримом будущем. Почитайте про сложность вычисления фолдинга белка: всем миром вычисляют, а клетка — это целый «город белков».
Вот например: www.computerra.ru/45910/50-let-izucheniyu-foldinga-belkov-kak-kom
Я вроде и не утверждал, что нам нужно это симулировать. Я говорю, что речь идет о построении больших ИНС, которые весьма далеки от настоящего мозга. Проблема в том, что у людей возникает печатление, что кто-то действительно симулирует мозг, что на данный момент невозможно, да и не факт, что нужно.
Во-первых, предполагается, что всем интересующимся темой известно, ЗАЧЕМ мы «симулируем мозг»: нам нужны его когнитивные функции — интеллект, сознание.
Во-вторых, слово «симуляция» подразумевает упрощенную модель. Никому в голову не придёт симулировать все атомы в модели крыла самолета в аэродинамической трубе. Заголовок гласит: «симулировать нейронные связи». Не сам мозг!
В-третьих, реальные работающие симуляции мозга БУДУТ отличаться от настоящего мозга так-же сильно, как крыло самолёта от крыла птицы. Важны принципы, а не детали. Крыло насекомого или летучей мыши только в общих чертах похоже на крыло птицы. Одна из когнитивных функций нашего мозга — как раз в абстрагировании от маловажных деталей и выявлении сути процессов и явлений. Эту функцию будут симулировать в первую очередь, а поскольку только человек ею обладает в достаточной мере, то связи его мозга и будут симулировать.
В четвёртых, простите, кого конкретно тут ввели в заблуждение? Спросите у этого человека, какое место в заголовке сформулировано неверно? Как сформулировать верно?
Каждому сигналу соответствует один бит информации

Странная формулировка, но если это значит, одному синапсу соответствует один бит, то до моделирования работы мозга там еще очень далеко.

В реальности мозг — сложная химическая система, там много чего напихано для управления. Для эмуляции одного электронного синапса нужна сложная электротехническая обвязка: питание, проводники, управляющие схемы, конденсаторы, резисторы и т.д. Но это другой уровень абстракций, он скрыт от нейросети. Мозгу-же нужно пропускать много сигналов, помимо тех, что обеспечивают существование разума. Так что одного бита, возможно, достаточно. Не будет достаточно — добавят в следующем поколении.

Зажигание нейрона да цифровое — 1/0, но сигнал отдельного синапса аналоговый. Там куча факторов по обе стороны синаптической щели влияющих на его силу и даже знак. В сущности это синапсы определяют какой именно будет сигнал после зажигания. Т.ч. нет, не согласен, что это можно это упростить до одного бита и считать что остальное "скрыто от сети".

Цифровое зажигание нейронов? Вы о «проводит/не проводит»?
Но нейросети не 1/0, там внутри сети вероятности от 0 до 1, что нивелирует некоторые сложности: вся эта обвязка био-нейрона в основном нужна, чтобы он вообще мог регулировать уровень сигнала, и схема его работы, в пересчёте на результат, получается очень переусложнённой. С цифрой проще, тут есть чёткие аппаратный и программный уровни. Сложность как раз в том, что программный очень медленно работает и для него нужны существенные оптимизации. Но нейросети доказали работоспособность и теперь их переводят в железо. Дальше будут оптимизировать структуры данных, связи и т.д., чисто технические вопросы. Нужно будет добавить 1000 внутренних параметров — добавят в железо. Нейрону об этом знать не нужно. У него задача — выдать вероятность от 0 до 1. А 0/1 — это уже финальный результат.
Они так пишут, как будто бы всем давно известно, как работает мозг, и дело осталось за малым — воплотить в железе.
Вы путаете причину и следствие: разум — не алгоритм, он образуется в результате работы нейросети. Но мы не знаем, как точно он работает, так что будем по старинке: сделаем тестовое железо и будем раз за разом тесты проводить методом приближения. Это как Большой Адронный Коллайдер, только для изучения разума.

Очередная дискуссия о копировании сознания. Думаю, будет уместным привести здесь немного творчества, затрагивающего эту тему


Комплексные числа - Мы, XXII век

Рекомендую, мне понравилось.



(Есть 4 части, но клипа к последней нет).

обожаю их. Вот начитаешься какого-нить Пелевина, и думаешь такой — а какая разница. Смерть не страшна. Смерти нет. Ко-ко. А потом посмотришь Аргонова, и понимаешь, что ты врешь себе. Что ты правда боишься смерти. И что с ней нужно бороться. Хотя бы потому, что ты человек, и волен думать о большем. А раз есть мысль, то что мешает этому быть?
Вот, что мне не очевидно: везде утверждается, что мы не знаем как работает мозг. Не знаем точно по какому принципу образуются связи, но собираемся при этом создавать симуляцию. Какой тогда в этом смысл? Как можно симулировать нечто, что функционирует по неизвестным законам?
То есть, я действительно правильно понял, что «эти ваши учёные» в первых симуляциях рассылали броадкасты ТОТАЛЬНО ВСЕМ узлам сети, даже тем, которые с отправителем напрямую никак не связаны?!
Они там совсем что-ли? Или я чего-то не понял?
На современном этапе моделирование мозга есть скорее бесноватость дилетантов или фиктивный мотив для выкачивания/попила (то есть воровства) бабла, чем какая либо наука. До «копирования сознания» же не просто как до Луны пешком, а существенно дальше. Луну то хоть видно. Тут же полный темный лес. Я не хочу перечислять десятки биологических артефактов и явлений происходящих с одним единственным нейроном, которые самым существенным образом влияют на деятельность мозга, но которые игнорируются всякими авторами моделей. Также я не хочу перечислять десятки биологических артефактов и явлений происходящих в группе из 2-3 нейронов, которые также самым существенным образом влияют на деятельность мозга, но которые также игнорируются авторами моделей. А еще бывают совершенно разные нейроны. А еще нейромедиаторов десятки только известных. Нейромедиаторы Существет около десятка групп нейромедиаторов. Как конкретно нейромедиаторы взаимодействуют между собой на конкретном нейроне в конкретной пространственной конфигурации аксонов и подавно темный лес. И что кроме полного неадеквата можно намоделировать опуская все это?
Во-первых, мне показалось, вы не совсем понимаете, «как работает наука». Нельзя идеализировать процесс научного познания, распил и заблуждения в науке кругом и всюду! Нильс Бор даже придумал афоризм «отрицательный результат — тоже результат». Эти слова, можно сказать, являются научным гимном: наука — это не то, что даётся без боя. Это не производственный цикл на предприятии по штамповке пластиковых стаканчиков, невозможно предсказать достоверно, когда и кем будет совершено прорывное открытие, которое изменит мир. А может, оно и не требуется, нужно только терпение и пошаговое развитие. Вы же требуете от разработчиков быть учёными на переднем крае науки, но при этом давать точные прогнозы. С таким подходом не было-бы и половины научных открытий.
В ваших словах нет духа авантюризма, пламени увлечённого исследователя, желания раздвигать горизонты. С таким настроем слона не продашь. Нужно просто идти вперёд и не сомневаться. В Илона Маска потому верят и следят миллионы людей, что он делает то, от чего государства, завязшие в своих военных тёрках, бюрократии и бюджетах, отказались десятилетия назад. Люди видят, что будущее приходит сегодня, пусть и с жертвами (а как без них?!). Но кто-то всегда будет бухтеть «интернет нам не нужон». Не надо так. Это обесценивает труд и жертвы всех людей, что вложили себя в эту тему. И, да, в эту тему требуется вбухать огромную кучу денег, часть которых распилят шарлатаны и дилетанты. Это жизнь.

Во-вторых, я чуть выше другим людям уже ответил на ваши претензии о неполном моделировании мозга: geektimes.ru/post/299381/#comment_10692351 и geektimes.ru/post/299381/#comment_10692367
Простите, кто-нибудь может объяснить, что конкретно кому-то не понравилось в моих словах?
А это у нас в культурном коде — применять повсеместно подход обратный описанному вами и, используя этот же самый негативистский подход, отрицать обратный, как у вас в примере. Н.Н. Непейвода популярно описал эту оппозицию например в этом предисловии is.ifmo.ru/download/2007_09_03_book.pdf или тут susanin.news/blog/Nepejvoda/238 А так как этот механизм/особенность мышления является базовым, лежит глубоко в бессознательном, то рассказать вам о том, почему рука сама нажала на минус вряд ли кто сможет.
Не показалось. Это известный местный фрик с «особым мнением», который вечно считает что эти ваши ученые не понимают/не знают что делают/занимаются ерундой. А он знает лучше. От изучения глобального потепления до генетики и термоядерной физики.
А это известный местный специалист по местным фрикам и как всегда без своего мнения. Вернее, всегда с мнением совпадающим с автором статьи. Милый набор дешевых троляцких приемов как всегда с ним. Пренебрежение к фактическому содержанию статьи и фактическому положению в рассматриваемой области в статье (прочно заменное на мнение авторов статьи) тоже опять с ним.
А где сам алгоритм-то описан? NEST — это же средство моделирования нейросетей.,

Обещают вскоре опубликовать в рамках NEST:
https://www.frontiersin.org/articles/10.3389/fninf.2018.00002/full (Extremely Scalable Spiking Neuronal Network Simulation Code: From Laptops to Exascale Computers / https://doi.org/10.3389/fninf.2018.00002) "The technology described in the present article will be made available to the community with one of the next releases of the open-source simulation software NEST."

Есть мнение, что "функциональный подход", к исследованию мозга был, ну если не ошибкой, то фактором серьезно тормознувшим понимание его работы.

Примерно так же, было с молекулярными биологами, им видите ли физики ответственно заявили что никаких там автопроцессов, в неравновесных системах, и 50 лет стояли на этом. А в итоге сильно неравновесные системы начали изучать когда? И вообще там всё очень похоже на ситуацию с мозгом, — он есть. Это всё что можно сказать. (автоколебательные процессы и т.д. у биологов).

Здесь на хабре, были не раз серии совершенно замечательных статей, с иным, отличным от функционального взглядом на работу мозга. Мне кажется что если где-то кто-то и найдёт верный подход, то вот в таких статьях, а не в научных отчетах о работе огромных коллабораций. Да, научная кропотливая работа, прямо сейчас дает очень много пищи для размышлений об тему мозга и сознания. Но это вовсе не передовые, сверхсовременные исследования нейронов и сетей. Это как ни странно, исследования о функционировании мозга детей с момента рождения. И другие вещи, далёкие от бигдата и бирюлек с ИИ…
На самом деле до тех пор, пока в рамках функционального подхода можно что-то интересное нарыть — пускай роют.
Ясно-понятно, что подобные модели «внезапно» вдруг ИИ не создадут и человеческое сознание не скопируют (ну просто потому, что они очень примитивны, да и касаются только нейронов, в то время как из человеческого организма выделить какую-то часть, и обозвать её «контуром сознания» — мягко говоря не просто, через химическую регуляцию в этом задействовано практически всё). Но они, как минимум, должны помочь выделить недостающие в моделировании элементы. А то и еще чего интересного.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Изменить настройки темы

Истории