Как стать автором
Обновить

Комментарии 9

1. По словам Яна Лекуна, «ни у кого нет хорошего во всех отношениях ответа»

Ответ есть. Но до ЛеКуна и прочих не достучаться.

2. "… избавьтесь от сетей CNN и их ограничений, избавьтесь от размеченных данных, объедините обработку снизу вверх с обработкой сверху вниз, оснастите машины когнитивными способностями Системы 2 и возьмите идеи и достижения нейробиологии и изучения человеческого мозга"

Насчет объединения обработок — в точку. Но цеплять к этому нейробиологию и мозги — совершенно лишнее. Не надо нам копировать мозги. Нам надо копировать функции, т. е. — алгоритм.
Взвешенный обзор и прогноз в этой сфере
Ничего против нейронок не имею, штука классная, рад что есть.

Но есть альтеративное мнение, которое возможно заинтересует читающих про ИИ людей.
Искусственный Интеллект или профанация. Профессор Савельев
Рассеиватель иллюзий.
Я уже давно писал, что это все нужно делать на алгоритмах точных расчетов. Даже описал схему, как это выглядит, в нескольких логических тезисах, которые все сводят к прогнозированию и принципам его использования (есть в профиле, если кому нужно). Если посмотреть на GPT-3, то она именно это и делает, только там не сильно вдаются, почему такой результат получается с точки зрения смысла. И GPT-3 не дотягивает до человеческой эффективности, потому что там берут количеством, а качество еще хромает. (Это ж надо, 40 Гб текста скормили сетке. Человек столько за всю жизнь не читает, но думать как то все же умеет.)

По сути, ИИ не «что это такое», а «зачем это нужно». А иначе слишком много в термин ИИ пытаются вместить смыслов. А нужно это что бы решать произвольные задачи, просто давая указания компьютеру. Копировать человеческий мозг для этого совсем не обязательно.

Я потихоньку делаю, но времени на все не хватает.
Похоже, будущее именно за гибридным ИИ. В каком-то смысле он напоминает человеческий двуполушарный мозг, где у каждого полушария свои функции: у правого – распознавание и синтез, у левого – классификация и анализ.
"…самообучаемая система сможет «прогнозировать любую часть данных, поступающих из любой другой части». Например, она могла бы предсказывать будущее по прошлому или скрытое — по видимому"

О-о-о! Предсказание будущего по прошлому — это знание законов существования и эволюции этого прошлого.

«Символический ИИ работает с абстрактными представлениями реального мира, которые моделируются с помощью репрезентативных языков, основанных в первую очередь на математической логике».

Не логика нужна для представления реального мира, а законы этого мира.
Прежде всего — законы эволюции…


«Это нисходящий подход к ИИ. Он направлен на то, чтобы наделить машины интеллектом, используя «высокоуровневое символическое представление проблем», следуя гипотезе физической системы символов, сформулированной Алленом Ньюэлом и Гербертом А. Саймоном»

Так-так-так...
«Laws of Qualitative Structure
All sciences characterize the essential nature of the systems they study. These characterizations are invariably qualitative in nature, for they set the terms within which more detailed knowledge can be developed.
Their essence can often be captured in very short, very general statements. One might judge these general laws, due to their limited specificity, as making relatively little contribution to the sum of a science, were it not for the historical evidence that shows them to be results of the greatest importance»

Перевод:
«Законы качественной структуры
Все науки характеризуют сущность изучаемых ими систем. Эти характеристики неизменно носят качественный характер, поскольку они устанавливают условия, в рамках которых могут быть развиты более подробные знания.
Их суть часто можно выразить в очень коротких, очень общих утверждениях. Из-за их ограниченной специфичности можно было бы судить об этих общих законах как об относительно небольшом вкладе в общую науку, если бы не исторические свидетельства, показывающие, что они являются исключительно важными результатами...»

Эти короткие и общие утверждения называются законами! Суть, т. е. сущность — вот что главное! Сущность систем, изучаемых науками, в их сохранении, т. е. — в существовании, длении, бытии, жизни этих этих систем. Другими словами, это наличие (присутствие) этих систем в реальности. Только после факта наличия систем их и можно изучать.

«Например, экспертные системы — самая популярная форма символического ИИ — были разработаны для имитации принятия решений человеком, следуя набору правил «если — то».

Экспертные системы — это далеко не самый верхний уровень описания систем реального мира, а, значит, и не для всей предыдущей цепочки принятия решений! Правила начинают применяться для конкретной ситуации, а предыдущие правила, из которых вытекают правила конкретные, остаются за кадром. А вот эти-то предыдущие правила и называются жизненным опытом. В конкретной ситуации жизненный опыт воспринимается как-то подсознательно, без четкой формулировки…

Джошуа Бенджио: «У нас есть машины, которые обучаются очень узконаправленными способами. Им нужно гораздо больше данных для изучения задач, чем человеческому интеллекту, [и всё же] они совершают глупые ошибки».

Потому и делают глупые ошибки, поскольку извлекают решения только из узкой области, которую для обучения предложили машине программисты. А весь массив предыдущих данных, из которого взята предложенная область для обучения, остался без какого-либо внимания.

»Мы сочетаем обработку снизу вверх с символьной обработкой сверху вниз".

Символьная обработка производится далеко не с самого верха!

«Конечная цель ИИ состояла в том, чтобы создать электронный мозг, который мог бы имитировать наш, общий искусственный интеллект (некоторые называют его сильным ИИ). Нейронаука может помочь глубокому обучению двигаться к этой цели...»

Это не ошибка? Может быть автор хотел сказать: «… создать электронный мозг, который мог бы имитировать наш интеллект»? Можно исправить эту ошибку, то всё равно описание конечной цели ИИ неверное. Цель интеллекта, хоть естественного, хоть искусственного — сохранение (существование, дление, бытие, жизнь) носителя интеллекта.

«Демис Хассабис, генеральный директор и соучредитель компании DeepMind, в статье, опубликованной в журнале Neuron, отметил важность использования нейробиологии в целях продвижения ИИ вперёд»

In this article, we argue that better understanding biological brains could play a vital role in building intelligent machines. We survey historical interactions between the AI and neuroscience fields and emphasize current advances in AI that have been inspired by the study of neural computation in humans and other animals.

Перевод:
«В этой статье мы утверждаем, что лучшее понимание биологического мозга может сыграть жизненно важную роль в создании интеллектуальных машин. Мы исследуем исторические взаимодействия между областями ИИ и нейробиологии и подчеркиваем современные достижения в области ИИ, которые были вдохновлены изучением нейронных вычислений у людей и других животных».

Эх, Хассабис, Хассабис…

«Джеймс Р. Кубрихт и его коллеги определяют интуитивную физику как «знание, лежащее в основе способности человека понимать физическую среду и взаимодействовать с объектами и веществами, претерпевающими динамические изменения состояния, делая по крайней мере приблизительные прогнозы дальнейшего развития наблюдаемых событий». Системы глубокого обучения не могут этого делать».

Наконец-то хоть кто-то обратил внимание на физику! И на учет изменений среды для прогнозирования будущего, т. е. на эволюцию…

«Системам глубокого обучения не хватает эволюционного багажа, который даёт нам преимущество при ориентировании в своем окружении».

Эволюционный багаж — это знание законов эволюции и использование этих законов для прогнозов дальнейшего развития наблюдаемых событий! Эти законы представлены в виде Универсальной схемы эволюции (УСЭ)...

«Джош Тененбаум работает над тем, чтобы привить эту способность машинам».

Статья Д. Таненбаума и коллег — Building Machines That Learn and Think Like People = Создание машин, которые учатся и думают как люди — 2016 года! Что-то долго они прививают способности машинам. Хотя рациональное зерно в их рассуждениях есть:

Specifically, we argue that these machines should
(a) build causal models of the world that support explanation and understanding, rather than merely solving pattern recognition problems;
(b) ground learning in intuitive theories of physics and psychology, to support and enrich the knowledge that is learned;

В частности, мы утверждаем, что эти машины должны
(а) строить причинные модели мира, поддерживающие объяснение и понимание, а не просто решать проблемы распознавания образов;
(б) базовое обучение интуитивным теориям физики и психологии для поддержки и обогащения усвоенных знаний;

Так это и есть заложить в машины знание универсальных, объективных и естественных законов эволюции! Законы эволюции должны лежать в основе модели мира, и не в интуитивной, а в четко прописанной логической форме.

"…реальный мир слишком сложен для машин. Программа MuZero компании DeepMind способна, планируя, играть в несколько игр на уровне мирового класса, но эти игры имеют чётко определённые правила и границы".

О чем и речь: новая игра, новые правила, новое обучение. А реальный мир — это набор миллионов «игр». Научить машину им всем не хватит ни времени, ни ресурсов.

«Заключение
Мы не знаем, какой путь лучше всего подходит для создания действительно интеллектуальных систем. По словам Яна Лекуна, ни у кого нет хорошего во всех отношениях ответа»

Спасибо, Ян Лекун, — горькое признание, но зато честное.
Не совсем понял вашу мысль. Что вы имеете в виду?
Системы глубокого обучения не могут этого делать…
реальный мир слишком сложен для машин…
Мы не знаем, какой путь лучше всего подходит…
и т.д. – весьма изрядная доля пессимизма. Да, раньше ничего не получалось и не было даже ни малейшего просвета, но это не означает, что нужно, как тем собачкам, ложиться на пузо и тихо скулить, что прорыв невозможен.

А что вы подразумеваете под законами эволюции? Как-то, на мой взгляд, вы их очень расширительно толкуете.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.