Как стать автором
Обновить

Комментарии 75

Не так давно прочитал предыдущую серию статей. Заметен прогресс в исследованиях и возможных реализациях, с нетерпением жду продолжения.
>… Автомат… обладает памятью… памятью обладают все его элементы…

В этом ключевая ошибка. Элементам «среды» для широковещательного распространения паттернов память не нужна. Им нужно лишь уметь неким образом «переизлучать» паттерн. Распознать же паттерн способен не элемент среды, а настроенный на него приёмник, то есть нейрон в целом.
Я описываю клеточный автомат. Так как он работает, то ошибки тут нет. Относительно того, как это происходит в реальной коре будет в следующей части.
Более общая ошибка в том, что Вы пытаетесь «изобрести» «популярную» модель работы мозга с «голограммами», «квантами», «цифровой физикой»… Ничего из этого реальному мозгу не нужно. Вся его задача в том, чтобы «распознать» и «ассоциировать» «распознанное». Если некоторое множество нейронов будут пространственно распределены и «ассоциированными» некоторому паттерну, то это вовсе не «голографическая память», а простое её «фрагментирование». Если, к примеру, файл на диске фрагментирован, то это вовсе не означает, что диск использует «голографическую память».
Фрагментированый файл на диске конечно не голография, но десятки или сотки фрагментированый файл с одинаковым контекстом уже голография.

Не сочтите что придираюсь, меня, просто, очень занимает вопрос сознания и если точно понятно, что мозгу нужно только «распознать» и «ассоциировать», то сразу возникает вопрос — как тогда на базе этих операций формируется сознание?
Если под сознанием вы подразумеваете субьективные ощущения при восприятии мира, то их можно легко описать активациями ассоциативных связей.
Вам стоит осторожнее использовать слово ошибка. Иначе у вас под ошибку попадает все, что не соответсвует вашим представлениям. И еще странно выглядит разговор об ошибке относительно компьютерных программ, которые корректно реализуют заложенную в них идею. Если программа работает, то и слава богу. Другой разговор — насколько то, что делает программа соответсвует тому, что делает мозг? Это будет описываться в следующей части.
>...«об ошибке относительно компьютерных программ»…

«Программа» тут не причём. Вы просто уже писали, что "… почти для всего, что есть в коре придумать гипотетическое обоснование почему именно это может быть аналогом элементов клеточного автомата. Сейчас я склоняюсь к тому, что наиболее подходящий кандидат – это тонкие веточки дендритных деревьев."
Разговор о биологической памяти будет в следующей части. Сейчас преждевременно обсуждать то, что еще не сказано.
В любом случае, идея с «автоматом» — лишь вывернутая наизнанку ИНС… Жаль, что Вы потратили на неё столько времени…
Зря заминусовали. Поясню. Если элементом автомата считать нейрон в целом, а не «веточки дендритных деревьев», то автомат становится обычной нейронной сетью с широковещательным распространением паттернов. Поэтому проще было расширить функциональность нейронной сети, чем тратить время на «автомат». Надеюсь, что свою ошибку автор уже понял.
Давайте все же позволим автору высказаться, сформулировать свою теорию, выдвинуть конкретные проверяемые гипотезы и сделать прогнозы. После этого уже можно будет обсуждать и делать выводы.
:) иногда «обсуждение» помогает «формулированию»…
Вы, видимо, считаете, что описываемый клеточный автомат, должен в том виде «как есть» выполнять вычисления, аналогичные нейронным сетям (или считаете, что это идея этого цикла). Архитектура о которой дальше пойдет речь — это нечто совсем иное. Подождите с поспешными вводами, дождитесь момента, когда картина станет видна целиком.
:) Вы, под «нейронными сетями» ИНС имеете в виду, или БНС? Если ИНС, то ответ — да — «автомат» должен быть хотя бы на их уровне.
ладно… Если в программе нет кранчера паттернов, а там просто симулятор… Тогда имеет смысл посмотреть, как образуется и что из себя представляет реальная волна с паттерном от активного нейрона. Как именно сегменты дендритов, присоединённые к аксону, формируют паттерн нейрона и инициируют волну с этим паттерном. Как волна с паттерном проходит в среде, состоящей из сегментов дендритов (без всякого участия памяти нейронов, разумеется). И как, наконец, паттерн с волной одного нейрона приходит к дендритам другого нейрона. Как паттерн меняется при прохождении в среде. Далее уже можно симулировать возникающие ассоциации паттернов, фрагментацию ассоциаций на нейронах и их упаковку (когда фрагменты разных ассоциаций одинаковые). Всё это требует не «сферического голографического коня», а симулятор, чётко соотносящийся с реальным мозгом.
>… Если программа работает, то и слава богу…

:) ладно… думаю, действительно… если программа есть, то надо на неё взглянуть… непременно…
>… осторожнее использовать слово ошибка…

:) Вы слишком болезненно реагируете на критику в свой адрес. «Критиков» надо лелеять…
А где программа? Вы так часто на нее ссылаетесь, что уже ора представить. Иначе это голословное «доказательство». ТО есть вообще не доказательство.

По поводу голограмм и волн можно только сказать словами из известного произведения «Все смешалось в голове Обломова». Голограммы из Прибрама, клеточный автомат еще откуда-то, волны… И ничего нового, ничего имеющего отношения к работе мозга. Имею возможность судить.
В тексте есть ссылки. Программы приведены на все то, о чем рассказано. Другие программы будут в следующих частях. Если вы считаете, что это не имеет отношения к работе мозга, то, видимо, вы знаете, как работает мозг. Тогда странно, что вы нигде не пишите об этом.
Где в тексте? Я вижу только ссылки на википедию, а не программу.

Вам бы еще сюда описание мозга как квантового компьютера с дуалистическими свойствами… )) Могу поспорить, что даже к концу описания, которое будет долгим, Вы не дойдете до конкретики, которую можно проверить или хотя бы фальсифицировать. Потому что ни во вступлении, ни в описании нет даже намека на это.
«Программа, моделирующая гиперколонку неокортекса. Воспроизведение обучения, событийной памяти и функции гиппокампа». Чего она воспроизводит и в каком месте? Я могу тоже написать программу и сказать, что она воспроизводит мышление — калькулятор. Я открыл секрет работы мозга?
>… до конкретики, которую можно проверить
>… или хотя бы фальсифицировать

Не совсем верно. Так или иначе, но гипотеза базируется на фактах. Другое дело, что количество выдвигаемых предположений довольно велико. Соответственно, чем больше нововведений, тем меньше вероятность успеха. Просто потому, что такие гипотезы рассыпаются как карточный домик лишь из-за нескольких «мелких» ошибок.

Гипотезу автора можно фальсифицировать от «противного», то есть подтвердив или опровергнув широковещательное распространение паттернов нейронов мозга. Проверить широковещательное распространение паттернов нейронов мозга на простейших опытах было бы куда проще, чем предсказать истинность гипотезы на основе существующих представлений. Для проверки необходимо разделить нейронную сеть на части. Поместить части в проводящую среду. Если спайк в одной части вызывает спайки в других — гипотеза верна. Если спайков нет, то на нет — и суда нет.
Вы не совсем верно понимаете фальсифицируемость — это не проверка на практике. Нефальсифицируемость — это когда на основании высказанного автором можно доказать и противоположное суждение. Или доказать вообще все что угодно. Вот тут это как раз в полный рост. Это такой прием схоластов или циганок. И только «проброска» автора как то их соединяет пседологическими рассуждениями. «Влияние творчества Евтушенко на производительность шахтеров Кузбаса».

Проверить же на практике или хотя бы смоделировать высказанное невозможно, потому что это догадки, причем основанные на совсем разных теориях, свести которые в одну логическую программу невозможно — это будет некая интерпретация, но не подтверждение гипотезы. Подтвердить можно только прямым опытом — на мозге или модели, которая выдает ровно тот же результат, что и мозг. Приложенные программы никакого отношения к работе мозга не имеют, то есть они что то демонстрируют, но ничего не могут доказывать, как хочется автору. Голограмма и волновое распространение если даже и есть, не значит, что оно есть в таком виде в мозге и что оно и есть механизм мозга, при помощи которого он работает (мыслит, запоминает, распознает). Автор не ссылается на исследования О МОЗГЕ. Он ссылается на теории, к нему не имеющие отношение.

Похоже на какое-то месиво, причем нескончаемое. В начале вроде был какой-то вопрос (о нейроне бабушки, который он заменяет другим процессом), но до ответа, как я не призываю автора, он не хочет даже доходить. Он постоянно пишет «в следующей главе, дальше все будет». А там опять ничего нет. Никаких ответов на все больше появляющихся вопросов. Похоже, что автор сам не знает ответ, а радость ему доставляет сами рассуждения. Но это бессмысленная работа, причем для читателей.

>… Вы не совсем верно понимаете фальсифицируемость…

:) Да. Точно. Надо было написать не «Гипотезу автора можно фальсифицировать от «противного»», а «Гипотезу автора можно опровергнуть от «противного»». То есть смысл противоположный.

>… Похоже на какое-то месиво, причем нескончаемое…

:) люди в основном читают, чтобы «прикоснуться» к «модному» и «современному»… типа: «автор, пиши ещё!»… а что автору остаётся?.. вот он и пишет… пишет и пишет…
В какой части уже будут описаны хаки и твики реального мозга? Наращивание памяти там, увеличение быстродействия…
:)
Вы недооцениваете силу воображения автора. Могут быть написаны такие «части», что сам чёрт ногу сломит…
Подозреваю что на большом реальном словаре понятия кластеризуются естественным образом формируя гибрид глобального и локального запоминаний, а анализируя активность кластеров можно оптимизировать этот процесс запоминания.
Мыслите в правильном направлении, но все еще интереснее.
Искренне надеюсь на это и жду следующую публикацию.
Правильно ли я понимаю, в вашей модели такая оптимизация происходит за счет хеббовского обучения синапсов нейронов, которые участвуют в распространении часто встречающихся паттернов?
Нет, механизм совсем другой.
Алексей,
объясните, пожалуйста, непонятный из этой статьи момент:
почему разные сигналы, проходящие через этот нейронный клеточный автомат, не «склеиваются» вместе?
Вы говорите: вот ключ пришел с одной стороны, значение с другой стороны — почему они не склеются в единый сигнал теперь?
Если же они склеются в единый сигнал — то как они «расклеются»? Если никак, то, значит, станет невозможно запоминание ключа и нескольких разных значений — а значит это просто оператор вида «a:=b», для ассоциативной памяти такого недостаточно!
>разные сигналы… через нейронный клеточный автомат… не «склеиваются» вместе…

Элемент автомата в этой модели («a segment of a dendrite») запоминает не один «сигнал», а некоторое их множество. То есть по сути он наделён некоторыми «чудесными» свойствами.
То есть сегмент дендрита это некий небольшой «мозжечок», который… «если» «видит незнакомый сигнал, то он случайным образом определяется срабатывать ему или нет. При этом он запоминает и узор волны, и сделанный выбор. Если сигнал ему знаком, то он повторяет выбор, сделанный при первом знакомстве с этим сигналом»…
Предполагается, что есть разные режимы. В одном элемент распространяет волну. В другом воспринимает факт прохождения волны, как ключ. В третьем воспринимает информационный сигнал. В четвертом запоминает. Исходите из того, что автомат не поставлен в жесткие рамки и мы можем доделывать его, как нам удобно для решения требуемой задачи.
>… есть разные режимы…

Это Вы о «чудотворном» и «мозговитом» сегменте дендрита?
Пока об элементах автомата.
Вы не только не ответили на мой вопрос, но, видимо, ещё и неправильно его поняли. Прочитайте участок статьи рядом с этой фразой: «Теперь, выполним запоминание. Для этого на всех элементах желтого цвета запомним узор, образованный элементами черного цвета. В свою очередь, на всех черных элементах запомним узор, образованный желтыми элементами. „
Это и есть то, что я назвал “склеиванием» сигналов.
Насколько понял, это для распределённой двунаправленной ассоциации паттернов с помощью многопаттерновой памяти элемента. В общем и целом, всё это «работает» лишь из-за «чудесного элемента».
Сигналы разделены по времени. Сначала прошла одна волна, затем другая. Элемент получает сторонние указания о том, какую волну, как воспринимать и что с ней делать. Когда проходит первая волна элементы, которые были в ее узоре, переходят в состояние «приготовиться», это в статье подразумевается под «помнить предыдущее состояние». Затем по автомату, где уже нет активности проходит вторая волна. Ее узор независим от первой волны. Предполагается, что теперь элемент знает был ли он в первой волне и должен ли запоминать. И при этом элементы отдельно видят узор второй волны. Те, кто был «помечен» первой волной, запоминают узор второй.
То есть, для операции запоминания ассоциации «ключа» и «значения», в одной области памяти «ключ» приходит раньше, «значение» позже (и запоминается ассоциация ключ->значение), в другой области — наоборот?
Ок, тогда встаёт другой вопрос: а кто передаёт эти служебные сигналы «приготовиться», «запомнить» (и «забыть», видимо, тоже)?
Каким образом осуществляется то, что только те, кто был «помечен» первой волной, запоминают узор второй волны?
Задаётся ли это разностью времени между волнами?
(Исходя из моих поверхностных знаний нейрофизиологии, сила и возможность ассоциации нейронов зависит от разности времен проходящих мимо них сигналов, а не от какого либо внешнего источника, дающего команду на «запоминание»… — и в литературе приводятся данные про 15 мс между сигналами для наилучшего усиления связи, насколько я помню. )
В нейроне, да и, вообще, в строении мозга нет ничего «просто так». Например, если есть около 70 типов g-белков, то значит за каждым стоит своя вполне определенная функция. Сейчас еще слишком многие механизмы не понятны и не описаны. Отчасти это связано с тем, что не очень понятно, что искать.
Для качественного описания системы вовсе не обязательно описывать всё — достаточно построить модель, хорошо повторяющую поведение оригинальной системы. Так что если вы про мозг — то давайте про мозг. А если вы про абстрактную модель, которая неплохо решает какие-то задачи, но не повторяет поведение мозга — то тогда так и говорите, что мозг тут совершенно ни при чём.
…а кто передаёт эти служебные сигналы «приготовиться», «запомнить» (и «забыть», видимо, тоже)?
Полагаю, что гиппокамп и таламус, хотя там речь идет об идентификаторах, а не о командах.
Никто не трубует, чтобы компьютер обходился одной шиной. Кроме того, по сети можно передавать пакеты, задавая и адресата и команду. Не стоит слишком упрощать мозг.
Ну, в теориях от нейрофизиологов всё намного сложнее.
Посмотрите на http://www.frontiersin.org/files/cognitiveconsilience/index.html и http://www.frontiersin.org/files/cognitiveconsilience/images/informationflow.png
Вот бы это с ИНС так скрестить, чтобы получить и высокую скорость, и высокое качество работы…
Схемы по ссылкам, скажем так, неоднозначные. Я далее попробую показать, что деление зон коры по функциям, так, как приведено там, скорее всего некорректно.
Я не вижу там деления зон коры по функциям, я вижу там только деление слоёв коры по функциям.
И ещё касательно волн, кстати, вам в копилочку: http://www.pnas.org/content/111/40/14332.full

Это очень правильный вопрос!

Возможны несколько сценариев взаимодействия:
— волны распространяются из одного места, тогда они пройдут по объёму автомата с временной задержкой. Это позволит узору первой волны запомнить узор второй волны и не перемешать их;
— волны распространяются из разных мест, тогда в объёме автомату будет 3 типа взаимодействия этих волн: первая волна является ключом, вторая волна является ключом, и объем в котором эти волны пересеклись в небольшом временном интервале.

Эти свойства интересны, но нужно понимать, что кроме позитивной стороны эти явления несут и негативное влияние на модель (с которым можно бороться вводя дополнительные несложные правила)
Конечно, можно вводить произвольные правила, но далеко не все эти правила будут описывать то, что происходит в человеческом мозгу.
Я думал, у вас модель всё же хотя бы на качественном уровне описывает человеческий мозг, а не абстрактное волновое вычислительное устройство.
Если же мы говорим про абстрактную модель, то всё пока нормально — но ровно те же самые вопросы возникнут, когда вы будете её притягивать к устройству мозга.
Интересно то, что «ключ» и «значение» — равноправны. Т.е. можно их поменять местами — для схемы ничего не изменится. Можно сначала пустить значение — и оно может ассоциативно вызвать (вспоминать) ключ, а можно пустить ключ, и оно вызовет значение. Вопрос тут только в том — как этот аппарат отличает что нужно запомнить, а что просто проассоциировать? Управляющие, «дирекционные» механизмы, насколько я знаю, в корковых структурах толком не описаны (помимо известного правила Хэбба). И, насколько я понимаю, химическая активность глиальных клеток и их воздействие на нейроны через метаботропные рецепторы и G-белки в этом играет одну из основных ролей.

Насчет необходимости хеша вообще лично мне непонятно — зачем заводить эту сущность? Просто как условность для описания концепции? Без неё нельзя? Лично я вижу что она только усложняет описание.
Укрупнение (расширение) мультимодальности значений в биологической системе происходит за счёт выстроенных межзональных проекций и иерархично организованных обобщений. Как совсем низкоуровневые «понятия» из первичной визуальной зоны V1 (направленные пиксели) проецируются в V2, укрупняясь в виде фрагментов кривых, а оттуда проецируются в V4, образуя уже варианты довольно сложных контуров, имеющих определённую долю инвариантности.
Про нейроны и глиальные клетки известно, что у них есть множество различных рецепторов и сложных механизмов связанной с ними химической регуляции. При желании из этого можно собрать любую сколь угодно сложную управляющую систему.
Насчет обоснованности введения хеша будет в следующей статье.
Я тоже подумал, что при достаточной разреженности кодирования не нужны хэши. Хотя, возможно, они здают дополнительный эффект обобщения или просто «так устроено» по эволюционным причинам.
Мне думается, что кора не делает принципиальных различий между «ключом», «значением» и «хешем». Что эти понятия — просто условные обозначения для удобства объяснения этого самому себе. Аксонный холмик, когда в нём интегрируются входящие импульсы, понятия не имеет — спайк этот от ключа, значения, или хеша. Они все по сути одно и то же — групповая активность, «нейроные ансамбли». В зависимости от того в какой именно области эта активность происходит, такую модальность (зональную специфику) «значение» и имеет. Источник значения может быть какой угодно — и первичные сенсорные области, и гиппокамп (в качестве «дёргателя» воспоминания). Только в первом случае проекции идут прямые (восходящие) — от нюансов к обобщениям, а во втором случае — в обратную сторону (нисходящие), от обобщений — к нюансам. И, насколько я знаю, количество аксонов обратной связи (для условной деконволюции) в разы больше чем прямой (конволюции) — между таламусом и V1 соотношение 1 к 3.

Так вот, когда устанавливается прямая восходящая ассоциация (груда «фич» одного уровня «сворачивается» в более общее одиночное значение вышестоящего уровня), тогда же и образуется обратная ассоциация, для того, чтобы иметь возможность _вспоминать_ не только абстрактность, но и конкретику, с ней связанную. Но качество «восстановленного» сигнала конечно не сравнится с исходником — там по большому счёту уже срабатывает «правдоподобная реконструкция». Про эту реконструкцию, кстати, Оливер Сакс рассказывал в своём выступлении на TED, в кратце — когда из-за отсутствия качественного, чёткого сенсорного сигнала образующаяся «шумливость» первичных областей постоянно создаёт галлюцинации спровоцированные нисходящими ассоциациями из верхних областей.
Работа не только нейрона и его аксонного холмика, но и каждого синапса в отдельности имеет сложную регулировку. Например, астроциты имеют, минимум, четыре механизма, влияющие на синаптическую передачу. Рецепторы на теле нейрона могут управлять работой аксонного холмика. Я подозреваю, что все процессы мозга четко отрегулированы, то есть нейрон хорошо занет где, что и почем.
Почему же не нужны? А как распознать один и тот же объект но с разных ракурсов?
Возможно, как раз именно таким образом — если, конечно, я правильно понял суть описанного хеширования.
Получается, что структура коры может быть как раз такой вот «хеш-функцией», которая обобщает информацию. По крайней мере, как по мне — это звучит логично.
О «разных ракурсах» будет очень подробно позже. Хеш, сейчас, несколько не для этого.
Кроме фрагментации ассоциаций паттернов, мозгу, видимо, ничего не мешает ещё и просто использовать эти фрагменты для разных паттернов. Простая распределённая упаковка — только и всего — никакой «голографии». «Сознание» и прочее — это обычные «иллюзии» — ничего интересного.
Как Ваша модель позволит распознать последовательность событий? Фильтр Блюма — отличное недорогое решение для преобразования последовательностей признаков переменной длины в фиксированный вектор. Но он теряет порядок поступления признаков. Получается как бы мешок признаков, разновидность pooling'а. Многие события в реале представляют собой последовательности, от перестановки событий местами поменяется смысл.
При встрече подчинённый обязан первым приветствовать командира, при отсутствии подчинения младший по званию обязан первым приветствовать старшего. За нарушения правил воинского приветствия военнослужащие несут ответственность.

Кроме того, не вижу как в этой модели пространственно разделены признаки. Например, глаза должны быть выше рта. Небо над землей. И т.д. Прохождение волн в рецепторной области возможно в произвольном порядке, в зависимости от расстояния от «цилиндра» до пространственной области, где, например, зафиксированы признаки глаза (при распознавании лиц).
Я не придираюсь, наоборот я обдумывал Вашу модель еще после первой публикации несколько лет назад. Но не понялл, как в этой модели получить нечто большее, чем статическое распознавание признаков наподобие нейронных сетей или даже просто регрессии.
Вы очень точно подметили суть. И задали правильные вопросы. Проблема последовательности и родственная ей проблема связаности — все это ключевые моменты, без решения которых трудно двигаться дальше. Фильтр Блума, действительно, может работать только с описаниями в которых неважна последовательность. Есть красивые методы, котороые позволяют решить вопрос последовательности. Я их скоро опишу. Но, гораздо интереснее с проблемой связаности. Решению проблемы связаности и проблемы понимания смысла и будет посвящен основной рассаз в этом цикле.
Забегая вперед, есть ли в Вашей модели механизм конструирования и проверки нескольких гипотез мозгом? Ибо из такого механизма может следовать и мышление, и компактное (экономичное) распознавание образов, и поведение и многое другое.
Вся последующая модель будет именно о том, как мозг может одновременно построить и проверить множество гипотез.
немного мистической экстраполяции.

голографический принцип в организации сознания, по всей видимости, имеет место быть, и Вы, похоже, разобрались

а) как он «виртуализирован» на биологической основе
б) как свойства этого «голографического эфира» порождают осознание

«виртуализирован», потому что сам голографический принцип функционирования сознания, возможно, существует и за пределами биологического мозга, если предположить, что весь материальный мир происходит как «сон-симуляция» в некотором сверхпространстве осознания высшего порядка и Вселенная обладает самоосознанием.

Тогда биологический мозг интересен в первую очередь именно как способ создать фрактальную рекурсию, проекцию давно известного принципа о том, что пространство, обладающее определёнными свойствами клеточного автомата для протекания в нём голографических волновых-интерференционных процессов, будет порождать процессы самоосознания. И весь вопрос тогда будет в том, как «локальный кусочек такого пространства» виртуализировать в теле организма на органической основе. Похоже на попытку сделать компьютер внутри компьютера из кубиков Minecraft

Под исходным глобальным пространством («океаном голографического осознания») я предполагаю клеточный автомат квантовой структуры физического континуума (отсылка к идее «голографической Вселенной»)
Вы затронули очень интересную (если не самую интересную) тему. Но об этом надо говорить подробнее, чем позволяют сделать комментарии к статье.
Имеет ли размерность автомата значение при программной реализации? Есть ли какое-то преимущество у трёхмерного перед двухмерным?
На уровне того, что пока описано это не принципиально. Но далее станут понятны причины по которым трехмерная конструкция окажется очень выжна.
AlexeyR, огромное спасибо за статью и за ту гигантскую работу, которую вы делаете!
Скажите пожалуйста, модель, которую вы описываете, относится только к мозгу человека или она также справедлива и для мозга животных? Если она также распространима и на мозг животных, то как тогда объяснить с точки зрения этой модели, почему у человека есть интеллект, а, например, у обезьяны / кошки нет?
Модель применима к любому мозгу. Различия между человеком и животными не в наличие или отсутствии интеллекта, а в его «продвинутости». У человека есть зоны коры, позволяющие оперироват с понятиями, которые незнакомы животным. Кроме того человеку доступна речь.
У дельфинов например тоже есть речь. Многие другие животные (обезьяны, попугаи) могут научиться нескольким десяткам-сотням слов, и применять их по ситуации, а не просто случайно подражая. Известны случаи, когда попугаи общались между собой на человеческом языке. Так что если этим видам понадобится построить цивилизацию, через пару миллионов лет они это смогут (кроме, наверное, дельфинов — они в эволюционном тупике).
НЛО прилетело и опубликовало эту надпись здесь
Слова — лишь способ передачи «смысловых последовательностей». У этих животных именно это и наблюдается, они вкладывают в звуки определенный смысл, или применяют их в соответствии с контекстом.

Вместо слов могли бы быть, например, какие-нибудь железы пахучих веществ, способные выдавать например 100 уникальных запахов. Их комбинация и составляла бы «слова» и даже целые «предложения». Так можно было бы передавать целые рассуждения одновременно. Правда после каждой «фразы» пришлось бы ждать, пока запахи рассеются…
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации