Читальный зал
Научно-популярное
Искусственный интеллект
Мозг
Комментарии 27
0
Удивительно, таким компактным текстом затронули так много тем и вопросов. Хочется и про голосовых помощников (вредителей?) ответить, и про интерлингву и многое другое.

Однако последний абзац всё и закрывает в итоге. Если этому придётся переспрашивать, что бы научится, то каковы шансы? По сути, вы предлагаете обучение ИИ с помощью живого учителя (прямая обратная связь с человеком), но как много итераций модели нужно для обучения простым классификациям и действиям и на сколько больше их понадобится для обучения сложным. Живой человек здесь не помощник, его не масштабируешь, как кластер в облаке.
Фильм Она смотрели многие, но это просто фантастика, не научная.
0

Спасибо!
ИИ может обучаться у кого угодно, я думаю.
Хоть в интернете.
Но сначала, он должен научиться ставить вопросы. В логике "команд" вопросы ставит подающий команду. Чтобы ИИ начал задавать вопросы, ему должно чего-то то не хватать. При полноте вопросов не возникает.

+1
… интерпретатор, способный понимать...

… программный интерпретатор, который бы улавливал смысл человеческой речи...

Так это и есть ключевая суть искусственного интеллекта — способность понимать, т.е. получается для того, чтобы создать ИИ вы предлагаете создать ИИ? (читай: «для того чтобы создать ИИ сначала создать интерпретатор», но сути это не меняет, вы подменяете понятия)
0
Ответите на вопрос, что такое понимание, начнете понимать, как это понимание реализовать в алгоритме )))
0
Как нет объективной реальности

— это, конечно, сильно. Статья ни о чем.
0
А вы считаете что есть? Та реальность, которую вы воспринимаете субъективна для вас, которую я воспринимаю — для меня. Покажите где в этом случае объективная реальность?
0

Зависит от глубины интерпретации. Если я интерпретировал вашу реальность достаточно глубоко, то можно говорить о совпадении. И можно взаимодействовать.
Если плохо — тр вы можете счесть меня глупым, неумным, грубым, человеком иной культуры и т.д. и т.п.

0
То есть, сами вы не способны дать ответ? Наверное, ещё не проходили?
0
Есть дискуссии, участие в которых, демонстрирует низкий уровень образования и/или естественного интеллекта.
0
Вы не можете описать объективную реальность субъективными ощущениями. Синее небо, зелёная трава, красная кровь… Казалось бы это объективная реальность. НО! Опишите это человеку, который не видит. В его субъективной реальности нет понятия «цвет». И если с травой и кровью есть тактильные ощущения, запах и вкус, то для неба нет и этого. Вот и получается что реальность очень сильно завязана на субъекта, который её наблюдает.
В принципе, у меня есть определение объективной реальности, но я хотел услышать вашу версию
+1

Если вопрос ко мне, то эта статья не про реальность. Она про то, как использовать философскую концепцию на практике. В частности для экспериментов в области ИИ.
Но если вы хотите дать определение, то конечно, просим в студию!

0
Вот и получается что реальность очень сильно завязана на субъекта, который её наблюдает.
Здесь имеется логическая ошибка, которая называется «подмена понятия». Не «реальность», а «результат наблюдения». Из-за печального случая потери зрения субъектом, законы распространения света не меняются. Человечество умеет справляться с этой проблемой.
Отвечать по этой теме я больше не буду.
0
Да, законы не меняются. Но чтобы открыть их существу, который в принципе не наблюдал свет, придётся действовать через косвенные наблюдения. Так же как человек не в силах наблюдать непосредственно гравитационные волны. Открыв их мы сделали ещё 1 шаг в сторону приближения субъективной реальности к объективной. И кто знает, сколько таких шагов надо будет сделать, чтобы точно сказать, что вот это вот всё, что мы наблюдаем, и есть объективная реальность?
-1

Я думаю, что раздвигая горизонт познания, мы раздвигаем и реальность. Но методика познания играет ключевое значение. Можно познавать мир, опираясь на физику Ньютона, а можно — на теорию относительности Эйнштейна. Скорость и глубина познания будет разной. И результат тоже. Таким образом, наша субъективность задаёт ограничения, рамки, паттерны познания. На самом деле, существует субъект-объектная связь, диалектика, если хотите. Раздвигая горизонты познания, мы и сами меняемся, меняются и инструменты познания и методы, и границы воспринимаемой реальности. А вот есть ли абсолютная объективная реальность — ещё вопрос. Судя по последним открытиям квантовой физики, вроде как связь субъекта и объекта неразрушима.

0
в ключе «философии искусственного интеллекта»

и в чём заключается ключ философии ИИ?
0
Вы знаете, очень легко заниматься теорией интеллекта. Есть две трудности: на практический результат надо выходить. То есть, без программирования, одними рассуждениями не обойдётся. Вторая трудность, что теория интеллекта приведёт к выводу, что у людей почти нет интеллекта, одно умение разговаривать.

Какой базис теории интеллекта? А лучше сказать, для отличия от нейросетевых угадывателей, теория разума. Базис не исследован.

В современных математике, физике, философии — всей науке — очень глубокий кризис. Даже обучение, призванное распространять базу для новых достижений, своим низким качеством, наоборот, начинает закрывать возможность этих новых достижений.

Если вот так осмотреться: вся земля это остров, населённый идиотами, которые ничего не знают. Возможно, научились уверенно держать ложку, но это максимум. Не пилить сук на котором сидишь ещё не научились, нужна практика. Нужна ли? Придётся рухнуть, всем сразу? Умение видеть общую цель, решать общие вопросы — в зачатке. Градация от тех кто знает, что ничего не знает и до тех, кто уверен что знает всё — это градация обратная, от умных к тупым.

Вот вы написали статью. А вы можете отнестись к ней критично? Вы осознаёте, что она тупо пуста? Ничего кроме болтовни.

Существуют теоретики, которые считают, что интеллекту нужно не понимание слов, а «боль», много «боли». Вы с ними могли бы обсудить и придти к полезному выводу? Например, что «боль непонимания» — это полезная боль. А ведь может быть это и не всегда?

А если начать программировать, то какая схема такой программы? Как запрограммировать боль от непонимания? Стремление его избежать.

А не захочет ли интеллект избавиться от боли методом нет мозгов — нет боли?
Как защитить его от суицида? Не приведёт ли эта защита к отуплению?
Если получить такую защиту, то не применить ли её сначала на людях? Будет ли отличаться эта защита от религии?

Можно ли нечто с названием «эйдос» формализовать? Как устроена формализация, которая не убивает суть?

Правда ли, что любая структура определяется только целью?
Откуда брать цель, если цели нету?
Как двум тупым не поссориться? Это вообще возможно?

Вот такая философия.
0
Про «эйдос». Фреймовая модель представления знаний предложена лет 40-45 назад. Учитывая это, публикация выглядит еще глупее.
0

Хорошая мысль — сделать такой симулятор и запустить в него обучающийся интеллект\интеллекты.
Только я бы их снабдил кое-каким обучающимся аппаратом кроме нейронок. Человек — существо не плоское. Как минимум имеет место быть иерархия нейросетей, причем усложняющаяся. Если этот механизм не воспроизвести — постоянно будем наталкиваться на нехватку мощности. На нехватку памяти и т.д. то есть вручную регулировать рост интеллекта. А в природе иак не происходит. Наш мозг не иерархия, но и не простая нейросеть, я думаю.

0
Насчёт статьи. Думал я над таким экспериментом.
Насколько я понимаю, автор предлагает вначале сделать симуляцию нашего мира (упрощённую), затем сделать человекоподобных агентов с Reinforcement Learning, затем заставить всё это дело эволюционировать. Изначально функцию полезности для RL задать явно, затем пусть её перенастраивает эволюция. Как-то так.

Я проводил более простой вариант такого эксперимента. Там вместо единого мира было множество мелких миров. Одна из проблем в том, что RL плохо эволюционирует. Ну то есть написали мы код RL. Как? Q-Learning, например. Сбор таблиц данных, обучение нейросети по прогнозированию полезности.
Что здесь может улучшить эволюция? Сами веса нейросети менять? Тогда это не будет QL, потому что он должен обучать нейросеть на основе опыта. Грубо говоря, на 27-м году жизни нам нужна одна нейросеть, а на 28-м — совершенно другая (в смысле весов, а не архитектуры), потому что таблица опыта отличается.
Да и RL сейчас работает на редкость плохо.
Что реально можно поменять эволюцией внутри RL-алгоритма? Можно менять архитектуру сети, стартовые веса, функцию полезности (правда, её нужно будет записать в параметрическом виде, например, в виде нейросети), всякие гиперпараметры типа доли рандомных действий и уровня любопытства. Можно так же добавлять Feature Engeneering — эволюция для этого пригодна.
Но поменять код QL эволюция не сможет. Я не видел ни одной реализации Reinforcement Learning на таком языке, что малое изменение кода ведёт к малому изменения поведения. Я пытался это сделать, но вышло… Ну, лучше, чем ничего, но всё равно не очень.
Если само ядро RL будет неизменно, то ИИ не сможет, например, поделить задачу на иерархию подзадач. Потому что нынешние RL такого не умеют (либо умеют, но только когда подзадачи явно описал программист, а не когда RL сам из вычленяет), а эволюция не изменит ядро.
Теоретически, эволюция могла бы поверх RL нарастить мощный слой предобработчиков. Типа коры поверх рептильного мозга. Задачи вроде «что раньше приносило профит, то и будем делать» будет решать рукописный QL, а отвечать на вопрос «эта ситуация похожа на ту, что была раньше?» будут предобработчики, которые создаст эволюцию.

Ну и вообще, предлагаю вашу идею потестить на каком-нибудь простеньком окружении из OpenAI Gym. Смысл даже не в том, чтобы добиться человеческого поведения, а чтобы научиться выгрывать на хотя бы околочеловеческом уровне
0
Эйдосы — это образы, лежащие в основе человеческого мышления и языка. Они представляют из себя гибкую структуру (обогащение наших знаний о мире). Эйдосы текучи (поэзия), могут перерождаться (изменение мировоззрения) и менять свой состав (обучение — качественный рост знаний и умений).


0
Было бы круто сделать так, как описано в статье. Но дьявол в деталях, как обычно.
Нужно придумать формат данных, который будет этим самым эйдосом. Потестировать этот формат данных на каких-то задачах, менее мощных, чем универсальный ответчик на вопросы.
Из похожего на эйдосы сейчас существуют эмбеддинги — это из задачи понижения размерности. Кроме того, существуют структуры типа ассоциативных сетей, но всё, что я видел в этой области, выглядит как очень много хардкода, который практически не способен обучаться (так как недостаточно сводим к задаче оптимизации метрик).
Судя по статьям о нейронном машинном переводе, «идеальный» переводчик — это тот, который кодирует текст в эмбеддинг (кодирует некую последовательность байт в вектор float-ов фиксированного размера), а затем берёт декодер соответствующего языка и превращает собственно в нужный текст. Вот ссылочка:
habr.com/ru/company/lokalise/blog/334342
«Идеального» переводчика пока нет, но… Лучшие из нынешних переводчиков работают примерно в этой концепции. Пытаются.
Насколько я понимаю, здесь проблема в том, что непонятно, как ставить оптимизационную задачу. Допустим, у нас есть волшебная временная петля, которая реализует поиск глобального максимума любой функции. Брутфорсом. Но мгновенно. При таком условии понятно, как обучить нейросеть… Или составить предсказательную модель реальности… Но как сделать эмбеддинг, который был бы хорошим внутренним представлением текстов? Видимо, надо подобрать автоэнкодер для текста, и то, что будет у него на внутреннем слое, и будет эмбеддингом? Тут же всплывает проблема: одному и тому же эмбеддингу может соответствовать довольно много разных текстов. Они будут почти неразличимы для человека, но в метрике качества надо будет как-то упомянуть, что существуют синонимы, что пропавшее слово — это иногда мелочь, а иногда — нет, что пунктуация важна, что порядок слов важен, но не всегда. Теоретически можно забить на все эти сложности и использовать какую-нибудь тупую метрику — например, посимвольное сравнение или что-то самую капельку умнее. Если мы хотим сделать эйдос эмбеддингом, то такая задача… Ну хотя бы формализуема, а там и до решения недалеко.

Потом насчёт учёта контекста. У меня такое впечатление, что люди учитывают контекст, потому что для них разные задачи изолированы лишь частично.
Самый идеальный нейросетевой переводчик, сделанный на LSTM-сети, смог бы перевести текст на другой язык, но не смог бы во втором тексте увидеть отсылки к первому и правильно их интерпретировать. Нет общей памяти, которая была бы доступна в обеих задачах. А у человека эта память есть.

Человек не решает изолированно задачу перевода — он решает задачу Reinforcement Learning, в которой можно условно выделить подзадачу перевода. Если ИИ делать по этому же принципу (дать ему при этом прорву статистики, которая скомпенсирует недостатки нынешних нейросетей и волшебный оптимизатор, который скомпенсирует неидеальность нашего градиентного спуска Adam), то по идее, он научится переводить. Когда он встанет перед вариантами «я перевожу эту хрень и получаю за это деньги или я не перевожу эту хрень и ищу иные способы заработка», высок шанс, что он всё сделает правильно. Ну, то есть таким способом, который даёт больше денег =) А там уже понятно, как контекст учитывать — хотя бы понятно, как формализовать задачу.

Кроме того, у людей есть предвзятость в пользу нашей реальности. Например, нейросети, чтобы научиться правильно переводить голос в картинку, надо больше примеров, чем новорождённому (я про выбор картинки, не про рисование). У человека явно есть предрасположенность к языку. Лингвисты расскажут больше, но суть примерно в том, что есть много вариантов, как создавать способы коммуникации, но все человеческие культуры используют лишь малую часть этих способов, а широко распространена ещё меньшая часть. То есть у человека от рождения есть что-то, что заставляет его не перебирать все возможные способы связи, а выбрать из относительно малого множества, и при этом угадать. У всех архитектур машинного обучения есть свои предвзятости, и они обычно не совпадают с человеческими =) Это лечится бОльшим количеством статистики.
Ещё у людей есть meta-learning, который в Machine Learning развит не очень сильно. Суть в том, что человек может «на лету» перестраивать свои предвзятости. Я вгрохал кучу сил в изучение начертательной геометрии? Я теперь буду замечать сечения и проекции везде, совершенно без усилий. Если же у нас нейросеть решает задачу Reinforcement Learning, то от долгого вождения автомобиля, мотоцикла и самолёта у неё не выработаются группы нейронов, хорошо решающие задачи вождения чего угодно. То есть сама конфигурация нейронки может хорошо решать множество задач, но… Скажем так, если у неё была функция активации relu, а для вождения лучше бы atan, то RL никак это не узнает и не исправит нейроны, и не потому, что это невозможно. А человек что-то подобное делает. Опять же, это не смертельно, но сильно уменьшает возможность запоминать контекст, требует намного больше данных
+2

О предрасположенности человека к языку.
Собственно, я об этом и пытаюсь сказать — человек устроен гораздо сложнее, чем кажется на первый взгляд. В прошлом, например, люди не знали анатомию, кровообращения не было как понятия, а сейчас человека разбирают по косточкам: пищевая система, выделительная система, нервная система…
Наличие системного устройства не отменяет того, что в основе живого лежит простая клетка. Но размножив эту клетку в миллиарды раз, мы человека не получим. Нужно устройство, система.
Равно кау и наличие нейросети в мозге человека (одной системы) не отменяет его связи с другими системами.
К чему я это всё?
Что-то мне подсказывает, что когда нейросеть будет обучаться не абстрактно, а, например, в теле робота и через его "тело", она будет давать результаты гораздо более человеческие.
Но можно не ждать и попытаться эмулировать человеческое тело как систему (программу) и попробовать обучить сеть через неё.

0
Что-то мне подсказывает, что когда нейросеть будет обучаться не абстрактно, а, например, в теле робота и через его «тело», она будет давать результаты гораздо более человеческие.
— с одной стороны вроде бы да, с другой… У человека нейросеть преднастроена. В неё уже заложены такие веса, которые лучше складываются в язык, в 2- и 3-мерную картинку, в классическую физику. А вот в электродинамику эти веса складываются уже хуже. Или в расчёт хеш-функции. Простым Reinforcement Learning не получить такого результата. Это не зависит от тела, это зависит от устройства мозга.
Решающим деревом можно подобрать, скажем, линейную функцию, но намного быстрее и экономнее это сделать линейной регрессией.
Не помню, скидывал ли я это ссылку раньше…
aideus.ru
В общем, если вам интересно и не влом потратить несколько часов своей жизни — предлагаю. Там есть глава «когнитивное смещение интеллекта». Я не уверен, что её можно понять, не прочитав предыдущие. Но там рассказывается, как так вышло, что у нас есть алгоритм универсального интеллекта, но он, зараза такая, не может решить простейшую задачку анализа картинок, а чтобы её решить, нам пришлось передирать из природы архитектуру нейросети, а до этого самые умные ИИ и инженеры эту архитектуру подобрать не смогли.

Сейчас есть некоторые эмуляторы человеческого тела — например, OpenAI Gym. Там много сред для тестирования ИИ, в том числе и среды с шагоходами.

Вообще, если учитывать всю эту ерунду с когнитивным смещением, то выходит следующее.
Либо у нас ИИ неэффективнен — жрёт кучу статистики, обучается сильно медленнее человека.
Либо мы передираем в ИИ всякие решения из природы — типа свёрточных нейросетей. Возможно мы передерём не всё, что нужно, и придётся «вытачивать» новую архитектуру чем-то типа эволюции.
Либо мы делаем, что-то типа встроенной в ИИ эволюции — то есть какую-то штуку, которая позволит ему вначале анализировать картинки каким-нибудь преднастроенным XGBoost, а потом более-менее самостоятельно разработать DeepLearning, комбинируя те детали, что мы выдали нашему боту. Видимо, надо максимальное число полезных блоков выдать этому ИИ явным образом, чтобы ему не надо было делать столько же экспериментов, сколько эволюции, а можно было хоть немного меньше =)

В связи с этим когнитивным смещением может так выйти, что человеческий разум… Сложен. Не простая математика с кучей данных, а куча сложных эвристик, которые нелогичны, до которых нельзя додуматься, их надо найти экспериментально. Не эволюция, а космолёт, который постепенно переделывали из микроволновки, и оставили кучу легаси)
Только полноправные пользователи могут оставлять комментарии., пожалуйста.