Pull to refresh

Comments 46

Я, возможно, в чем-то ошибаюсь, но вы описываете «сильный» AI, которого нет, и в ближайшем не квантовом вычислительном будущем не предвидится. И который, в общем-то, не нужен для решения большинства прикладных и инженерных задач, которые решаются как раз таки узкоспециализированными «слабыми» AI, что, в частности, повышает стабильность их работы и предсказуемость результата
Вы не ошибаетесь, я описываю «сильный» интеллект. С моей точки зрения, «слабый» интеллект — это вовсе не интеллект. Данная классификация — ложная.
По поводу Ваших выводов:
1. Видит не глаз, видит мозг. Собственно, в этом одна из проблем компьютерного зрения (CV)…
2. Распознавание (т.е. классификация) — это очень узкая задача, проблематика CV много шире. Погуглите…
3. Пока неизвестно как именно устроено «видение», Ваш вывод слишком сильный, он не обоснован. Да, можно предполагать именно это (см. п.1), но нет даже самой грубой модели. Мы просто не знаем пока…
Чтобы рассуждать об алгоритмах распознавания, надо знать, как они работают, как их обучают, как реально решается инженерная задача. Чесать языком легко: легко сказать «мне не нравятся нейросети, потому что ...». Пустой разговор. Вот если бы вы немного въехали в тему, то разговаривали по-другому.
Если хотите научить нейросетку видеть процесс вставания с кресла или рисования символов, то учите её этому. Какая проблема? У инженеров такой задачи не стоит, вы ее сами сформулировали. А проблема будет: надо будет подготовить обучающие примеры (датасет). Решайте эту проблему, а не обзывайте нейросети плохими словами только потому, что хочется.
Вы правы: с алгоритмами распознавания я не знаком. Я никогда и не притворялся, что знаком.
С другой стороны, ваши слова показывают, что в мое «чесание языком» вы немного не въехали. Вопрос не в том, чтобы «научить нейросетку видеть процесс вставания с кресла», а в том, чтобы робот сам находил характерные признаки «вставания с кресла». Нейросетка для этого не приспособлена. А обучать нейросетку различать вставание с кресла, потом вставание со стула и еще миллиону типовых действий можно. Только заколеблетесь обучать, и ИИ таким способом не создадите. В этом главный посыл статьи.
Нейросетка для этого не приспособлена. А обучать нейросетку различать вставание с кресла, потом вставание со стула и еще миллиону типовых действий можно.

Ничего подобного. Это вы сочинили. нейросеть может обнаруживать любые закономерности и для этого ей нужно столько примеров, сколько и человеку. Нейросеть умеет обобщать, абстрактно мыслить, играть в шахматы, го, старкрафт, заменять генерального директора и программиста. Проблема лишь в том, как её обучить всему этому.

Лучше не сочиняйте сказки про нейросети.
Михайло, это ты?
Что-то я логики не улавливаю. А говорю «Обучить нейросеть различать вставание с кресла можно», а вы в ответ: «Ничего подобного. Конечно, можно».
Чего, по моему мнению, нейросеть не умеет, так это самостоятельно (то есть без обучения, на основании одной постановки задачи) находить характерные признаки «вставания с кресла». А что, она это умеет?
Все очень просто. Вы находитесь в неведении, поэтому и не видите логики. Вы верите в божественность мозга. Вам уже говорили про антропоцентричность вашего мировоззрения, я просто повторяю.
Нет никакой сложности обучить нейросеть отличать вставание со стула от прыжков на батуте или занятия сексом на видео. Простое обнаружение зависимости между пикселями соседних кадров, чистый анализ данных. Примерно также и мозг человека работает, только у него несколько другие обучающие примеры. Главное подносите обучающие примеры. )) В этом вся трудность — где взять датасеты.

С постановками задач еще сложнее, датасеты надо готовить совсем сложные, нейросеть придется обучать послойно. Нужно учить нейросеть, читать, писать, считать… А вы как думали??? Нейросеть надо учить как человека. Теоретически это понять несложно, но вот как реализовать практически — это да…

И потом вы понимаете, что человек может стать инженером, но для этого надо его аккуратно учить. Только лучшие становятся инженерами, а то гляди и учеными. Следует различать две вещи:
1. Человек МОЖЕТ стать инженером
2. Человек СТАЛ инженером

Разница в обучающих примерах (датасетах). ))))) Вспомните в фантастических фильмах 90-х годов: обучали суперменов и всяких там универсальных солдатов за несколько часов с нуля путем показа большого количества картинок по телевизору. Такое не прокатит. На картинках далеко не уедешь.
В таком случае спорить не о чем: подписываюсь, особенно под этим:
Нейросеть надо учить как человека. Теоретически это понять несложно, но вот как реализовать практически — это да…

Кстати, о практическом способе: по-моему, он один — начинать обучать робота вместе с новорожденными человеческими младенцами, и так до совершеннолетия.
И да, на мой вопрос «Умеет ли нейросеть самостоятельно ставить задачу и находить характерные признаки «вставания с кресла»?» вы так и не ответили. Вероятно, все-таки не умеет. Именно поэтому я и считаю нейросети ограниченными в своем применении. Над нейросетями, на уровень выше (ну, или ниже, смотря как выразиться), еще один управляющий алгоритм должен быть, и этот алгоритм точно не нейросеть.
Умеет ли нейросеть самостоятельно ставить задачу и находить характерные признаки «вставания с кресла»?

Не умеет. Но можно научить. Никакого алгоритма сверху не надо для того, чтобы научиться повторять. Человек тоже повторяет, не изобретает. Изобретения — это случайный процесс. Нейросеть тоже может изобретать: т.е. взять попробовать что-то, сама оценить результат -> обучиться -> закрепить результат. Может сформулировать новое правило на основе новых эмпирических данных, если обучена формулировать правила.

Вообще никаких проблем. Теоретических.

Кстати, грамотно экспериментировать — это тоже обучаемый навык. Им обладают хорошие инженеры, художники. Навык развивается за счет опять же обучающих примеров, а не дан богом свыше.
Интуитивно не согласен, а обосновать не в силах.
Строго говоря, ваши последние утверждения не противоречат моей статье. Даже если вы правы, совершенно и во всем, то нейросеть для распознавания изображений все равно ограничена в применении. Над ней все равно должна быть другая управляющая программа, без которой изображения (для их восприятия интеллектом) — жалкий пшик. Вы считаете, что эта управляющая программа должна быть нейросетью, я в это не верю (не специалист — могу искренне заблуждаться. Впрочем, как и специалисты). Но в любом случае данный вопрос — не тема моей статьи. Статья о том, что нейросетевая распознавалка изображений — весьма локальная подпрограмма даже для распознавания изображений, в обыденном человеческом представлении.
Каждый последующий слой нейронной сети — это и есть как бы надпрограмма над предыдущими слоями нейронов. Чем ближе слой к выходу тем высокоуровневее и абстрактнее признаки. (Признак — это такой термин. Каждый нейрон «реагирует» на какой-нибудь признак, например, наличие глаз на фото и т.п.)
От слоя к слою признаки обогащаются примерно так:
1. Глаз есть.
2. Два глаза есть.
3. Два глаза и хвост.
4. Два глаза и длинный хвост.
5. Все признаки кошки.
6. Все признаки большой кошки.
7. Это же тигр!
8. Это злой тигр!
9. Опасность!
10. Ноги, совершайте движения.
11. Бег.
12. Быстрый бег!
Пример управляющего алгоритма, который не может быть нейросетью.
Интеллект обязан иметь цель. Это довольно очевидно, доказательства опускаю. У человека целый комплекс целей, от низменных до высокодуховных: питание, выживание, размножение, удовлетворение эстетических потребностей и т.п. ИИ тоже должен иметь цель. Ее просто нужно вложить в программу — никакой нейросети для ее определения не требуется. Целевая установка — управляющая программа, которая не является нейросетью.
О, нейросети имеют цели и еще какие. Например, минимизация количества ошибок или минимизация среднеквадратической ошибки. В общем-то вся задача сводится к поиску таких весов, при которых те самые ошибки минимальны. Вычисление ошибки интегрируется в алгоритм обучения и является частью нейросетевого алгоритма.

Но! Это низкоуровневая система целеполагания. Нейросеть, в принципе, может создать высокоуровневую систему целеполагания в процессе обучения. Достаточно учить нейросеть планированию и действиям в соответствии с планом. Ведь план — это документ, содержащий цели.

Так что у нейросетей все как у человека.
Я имел в виду не текущие тактические цели, а единственную стратегическую цель. Допустим, у человека это размножение. У робота такая стратегическая цель тоже должна быть. Допустим, это выполнение приказов человека. Для программирования этой цели никакой нейросети не нужно, по определению: цель заранее известна, и она единственная. А определять последующие тактические цели, на основании стратегической, — наверное, нейросеть это сумеет, я не возражаю.
Вы слишком завышенного мнения о человеческом мышлении. Если человека не научить тактически мыслить, то он не сможет тактически мыслить. Всему следует обучать.

Вы всегда думаете о каком-то абстрактном человеке (среднестатистическом, суперчеловеке), которого мысленно наделяете любыми способностями. Например, способностями спортсмена или способностями доказывать алгебраические теоремы. Однако вы не думаете о том, что человека надо обучить этому. Вы думаете, что он сам МОЖЕТ обучиться, если захочет. Однако это неправда. Интеллект человека гораздо слабее, чем кажется. Все те замечательные способности, которыми мысленно наделяется «обычный» человек, для большинства людей могут быть недоступны.
Думаю слишком много всяких вариантов действий и связей, устанете учить.
Да, устану. Человека нужно обучать 20 лет, а то и больше. Вообще невыносимо учить человека, очень дорого. Но реально.
Больше чем в го? (топологически разумеется, в распознавании всех «запеченных воксельных форм» разумеется нет необходимости) Требуется определить допустимые относительные углы сочленений, классифицировать «плечи» эти углов, определить наличие объекта с которого может происходить вставание… тут даже не везде NN или «сильный интеллект нужен». Разумеется здесь приведена поверхностная декомпозиция задачи, без определения граничных условий и выявления того, что мы будем понимать под термином «вставание». Даже с точки зрения человека — если это выглядит как человек, движется как человек и находится в условиях допустимых для существования человека — то это скорее всего человек. На этом построены всякие иллюзии и ужастики. Наш человеческий «ИИ-зрения» не всегда верно класифицурет входные данные и если дело совсем швах — то включает механизм выживания «страх» — классический ужастик — показать что-то в темноте — отдаленно что-то напоминающее, а потом резко показать иное, причем желательно сложно классифицируемое.
Требуется определить допустимые относительные углы сочленений, классифицировать «плечи» эти углов, определить наличие объекта с которого может происходить вставание…

и это только для одного понятия из огромного множества таковых
Вы говорите, что молотком (алгоритмом классификации изображений) нельзя поднять стул на третий этаж, и долго и методично это обосновываете.
Но неужели вы только про молоток знаете?
Ну так может стоит поискать в интернете, как решать именно вашу задачу, спросить на форуме или в тематической конференции? (рекомендую сообщество ods.ai ).
Нейросеть может заменять любую часть любого алгоритма. Где-то это будет чрезвычайно неэффективно, а где-то — более эффективно, чем писать этот алгоритм руками и формулами.
В данном случае, вас интересуют задачи SLAM (построение карты глубины по одной видеокамере), (video) instance segmentation (video object segmentation, не ограниченное классами объектов распознавание объектов на фото и видео, причём два разных человека после instance segmentation должны стать разными объектами, в этом смысл слова «instance» в названии), human pose recognition (построение положения рук и ног человека), video-based human action (activity) recognition (распознавание действий человека по видео).
А молоток пусть лежит на полке и используется для забивания гвоздей.
P.S. Кстати, у человека тоже разные области коры решают разные задачи.
Я методично это обосновываю, а вы не менее методично критикуете каждый мой пост на тему ИИ. Вот и гадай после этого, это ваш общественный долг или служебная обязанность.
Ну говорил же: не нравятся мои посты, не читайте.
Извините, я не смог пройти мимо и не подсказать вам, как лучше решать вашу задачу, даже если вы и не задали явно вопрос. Профессиональная деформация? :)
Но, может, я действительно вас неправильно понял, и вы хотели объяснить, что алгоритм мультиклассового распознавания изображений не решает все задачи мышления, связанные со зрительными процессами. Исправьте тогда, пожалуйста, моменты, указанные в моём комментарии ниже, и получится отличная статья!
Кстати говоря, почему бы вам (автор) не взять и не начать работать с нейросетями? Это гораздо проще, чем кажется.
Ставите Python и к нему библиотеку типа Sci-kit learning (для начала), Keras (для дальнейшего развития). Потом гляди в сторону OpenCV, если нравится компьютерное зрение (необязательно нейросети тут).
Ознакомиться со всеми технологиями не хватит жизни.
На данный момент у меня есть задачки поинтересней изучения нейросетей. Если возникнет интерес, изучу, никаких сомнений.
Жаль, конечно, что мне в учебных заведениях нейросети не преподавали, по известным причинам, но этого упущения уже не исправить.
Есть курсы в интернете:
stepik.org/course/401 — попроще, заканчивается классификатором, подобным описанному вами в этом посте.
dlcourse.ai — наш, посложнее, но, в том числе, обзорно описывающий проблематику применения нейросетей для решения различных задач. Даже если пропускать математические куски, можно получить неплохое представление о том, как эти технологии применять на практике, и лучше понять их ограничения.
P.P.S. Кто-то, вероятно, сообщение выше не понял, даже несмотря на мою простую аналогию.
Давайте распишу чуть подробнее основную проблему данной статьи: шизофреничность. В одном месте автор говорит, что хочет сравнить компьютерное зрение и человеческое, а в другом месте — что хочет сравнить компьютерное зрение и человеческое мышление.
Приведу конкретные примеры.

>По моему мнению, распознавание визуальных образов человеком и компьютерной системой сильно различается – настолько сильно, что имеет между собой мало общего.

Нет, «распознавание визуальных образов» как раз не сильно различается, но вы к «распознаванию визуальных образов человеком» причисляете различные задачи, которые ниже перечисляете, а компьютерную систему берёте только одну: мульти-классовое распознавание объектов.
Компьютерное зрение тоже решает различные задачи.
В одном вы правы: классический алгоритм компьютерного зрения, рассматриваемый вами — классификатор ограниченного числа объектов — действительно имеет все эти ограничения.
Но объясните мне, пожалуйста, как вы проделали этот переход от «распознавание визуальных образов компьютером» к одному конкретному алгоритму? Почему «распознавание визуальных образов человеком» трактуете после этого расширительно?
(Вопрос «зачем вообще кому-то сравнивать тёплое с мягким?» при этом оставим)
Если человеку давать говорить в ответ на то, что он видит, только цифру от 1 до 1000 (и попросить, чтобы новые цифры не зависели от прошлых цифр), то посмотрим, как человек решит все ваши задачи в пунктах 2-7.

>А что если какой-то предмет попросту не имеет названия, соответственно его нет в базе исходных образцов, по которым обучается алгоритм – что в таком случае должен распознавать робот?

Алгоритмы распознавания лиц, например, способны понять по двум фото, один это и тот же человек или нет, даже если никогда его не видели (и не имеют для него метки). Как же это возможно? Благодаря такой штуке, как «embedding», которая примерно соответствует тому, что «человек видит, но не имеет ещё для этого названия».

А ещё часть механизма зрения человека — это механизм внимания… Если человеку обездвижить глаза и голову, увидит он немного. Про него вы забыли совершенно, даже методично сравнивая тёплое с мягким. Кажется, в половине случаев, «мышлением» вы назваете именно этот механизм. Я понимаю, сложно разделить зрение, внимание и мышление. (Кстати, у компьютера тоже есть механизм внимания, и именно он помогает побеждать компьютеру в Dota 2 и Starcraft 2.)

Давайте разберём и выводы, вызванные этой терминологической путаницей.

>1. Простое распознавание визуальных образов не заменит человеческих глаз.

Вот как раз глаза заменит. Есть различные эксперименты и устройства.

>2. Алгоритмы распознавания изображений – вспомогательный инструмент с весьма узкой сферой применения.

Тут всё верно. И человеческие, и компьютерные механизмы распознавания изображений — «вспомогательные инструменты с весьма узкой сферой применения».

>3. Чтобы робот начал не то что мыслить, а хотя бы видеть по-человечески, требуются алгоритмы не только распознавания образов, но и все того же полноценного и пока недостижимого человеческого мышления.

Чтобы робот начал видеть по-человечески, у него всё уже есть! (Правда, чтобы компьютер видел хорошо, пока что нужна мощность кластера или хотя бы нескольких видеокарт и мощный процессор. А вот с тем, чтобы компьютер видел «очень хорошо» — у нас есть некоторые проблемы, но, может, надо увеличить мощность вычислений ещё на пару порядков?)
А вот чтобы ответы робота на заданные ему вопросы совпадали с человеческими, ему нужны механизмы мышления, сравнимые с человеческими, и базы данных для тренировки, сравнимые с данными, которыми кормят людей. Систему зрения при этом компьютеру можно оставить такой, какая есть (ну, разве что, добавить ей мощности).
Не волнуйтесь вы так, это я вам минус в комментариях поставил.
И то, что вы пишете, особого отторжения у меня не вызывает. Просто человеческое зрение сильно увязано с мышлением. Вы в данной мысли усматриваете шизофреничность? Вот вам ссылка на соответствующую статью в Википедии, ознакомьтесь:
ru.wikipedia.org/wiki/%D0%A8%D0%B8%D0%B7%D0%BE%D1%84%D1%80%D0%B5%D0%BD%D0%B8%D1%8F
И да, извините, но больше на ваши комментарии отвечать не стану. Не хочу.
>Просто человеческое зрение сильно увязано с мышлением.
>Вы в данной мысли усматриваете шизофреничность?
Да, я чётко разделяю понятия «мышления» и «зрения». Для меня зрение — это про «то, что мы видим», а не про «то, что мы думаем о том, что мы видим».
Я усматриваю шизофреничность в том, что вы считаете человеческое зрение связанным с мышлением, а компьютерное зрение — не связанным с мышлением. Видимо, это потому, что вы интуитивно понимаете, как делить на части компьютерные системы, но не хотите подобным же образом делить системы человеческого мозга.
Вы же понимаете, что если вы сделаете систему компьютерного мышления, то она тоже будет тесно связанной с системой компьютерного зрения?
И ещё, давайте уж сразу выскажусь на тему применения нейросетей для «сильного ИИ», раз уж эта тема затрагивается в вашем посте:
1) Да, нейросети можно применять для многих задач на практике уже сейчас
2) Но ещё больше задач, где их нельзя пока применять, по разным причинам.
3) Более того, текущие ограничения нейросетей делают задачи «слабого ИИ» намного более полезными на практике (аналогия: нам не нужен весь человек с его спонтанностью, а лишь только части его мозга, хорошо решающие отдельные конкретные задачи).
4) Тем не менее, решение задачи построения «сильного ИИ» без нейросетей мне кажется невозможным.
5) Классические методы использования нейросетей не рассчитаны на «задачи мышления»: они хуже человека справляются со смещёнными выборками и противоречивыми данными.
6) Мы привыкли решать измеримые задачи (такие, где критерий качества — число от 0 до 1). А как измерить качество «сильного ИИ», интеллектуального компьютера, без использования человека?
Всегда поражало, как авторы таких статей употребляют такие термины как сознание, мышление и тем более осознание самого себя… А потом на основе своих же сентенций делают далеко идущие выводы о слабости алгоритмов распознавания.

Ребята опомнитесь, сейчас никто ничего об этом не знает. едва едва только нащупывают способы понять. Более того, последние изыскания в области нейрофизиологии, за которые в том числе давали нобелевские, говорят, что сознание ни на что не влияет, и что наш мозг ровно так же как и обычная сеть учится распознавать образы. Дети до трех лет — упорно учатся распознавать обьекты и их контуры. И если, не дай бог, они окажутся в условиях полной изоляции, они не смогут видеть в облаках драконов.

Не уподобляйте себя Шерхану, которые судит о Маугли по тому, что может о нем представить в рамках своего животного мира. Мы же с Вами знаем, что если бы не обстоятельства, маугли вполне мог стать Шекспиром.

В конечном итоге вспомните историю с Го. Где тот самый слабый ИИ сделал то до чего человек со всеми своими тысячами лет эволюции не додумался, чем перевернул традиции игры в Го. А сложность нейросети игры в Го, не была даже и близка с мозгом пчелы не то что человека.

Сам факт, что наши текущие слабые подделки на этот счет не просто что-то узнают, а еще и могут быть использованы в продакшене — это УДИВИТЕЛЬНО. Удивительно настолько что пугает. Не дай бог у нас будут ресурсы скормить сети столько же информации сколько обрабатывает наша нейронная человеческкая сеть.
Запрещаете употреблять термины «сознание» и «мышление»? Или запрещаете делать далеко идущие выводы не лауреатам нобелевской премии? Интересно, нынешние лауреаты, еще не будучи лауреатами, нарушали данные правила или их выводы становились далеко идущими сразу после присуждения нобелевских премий? :)
Я бы запретил. Только потому что это терминология философов, а не ученых. Философия — это псевдонаука. Не бывает науки обо всем. Например, о теореме Геделя может рассуждать только математик, а не дилетант-философ.
Вот здесь я с вами категорически не согласен. На пересечениях классических наук образуются новые науки. Для того, чтобы увидеть и оценить новые возможности, философия просто незаменима. Но технари ее на дух не переваривают, конечно — возможно, потому, что философия указывает пределы любой науки.
Ничего подобного. Никакие науки от философии ничего не получали с 18-го века. Не надо сочинять на ходу. На пересечениях наук находятся другие науки, междисциплинарные, которые с философией ничего общего не имеют. Философия — это надувательство щек. Не существует также никакой новой современной философии, заменяющую «ту старую».

Все термины философии, например, относящиеся к искусственному интеллекту, являются ненаучными. Это трудно понять? Настоящая наука не собирается заниматься «проблемами сознания», «проблемами мышления», так как таких проблем не существует для науки.
Не стану переубеждать.
И не сможете. Все ваши убеждения сродни религиозным: антропоцентризм в искусственном интеллекте, научность философии… Спор на неравных условиях.

Теоретически, все упомянутые Вами проблемы разрешаются добавлением нового уровня machine reasoning к имеющемуся machine learning. Такая архитектура должна сочетать логические рассуждения на базе знаний всего человечества (см. проект CYC) и контекстное обучение на ходу. Пока на практике эта архитектура (её называют нейро-символьными вычислениями) ещё не изобретена, но никаких фундаментальных ограничений, препятствующих её появлению, нет.

Нейросеть может сама научиться резонить.
Просто обучать сложно.
Безусловно, может. Правда, тогда она становится кое-чем посложнее, например, неокортексом.
UFO just landed and posted this here
Перед нами стол. На столе стакан и вилка. Что они делают? Стакан стоит, а вилка лежит. Если мы воткнем вилку в столешницу, вилка будет стоять. Т.е. стоят вертикальные предметы, а лежат горизонтальные? Добавляем на стол тарелку и сковороду. Они вроде как горизонтальные, но на столе стоят. Теперь положим тарелку в сковородку. Там она лежит, а ведь на столе стояла. Может быть, стоят предметы готовые к использованию? Нет, вилка-то готова была, когда лежала. Теперь на стол залезает кошка. Она может стоять, сидеть и лежать. Если в плане стояния и лежания она как-то лезет в логику «вертикальный-горизонтальный», то сидение — это новое свойство. Сидит она на попе. Теперь на стол села птичка. Она на столе сидит, но сидит на ногах, а не на попе. Хотя вроде бы должна стоять. Но стоять она не может вовсе. Но если мы убьём бедную птичку и сделаем чучело, оно будет на столе стоять. Может показаться, что сидение — атрибут живого, но сапог на ноге тоже сидит, хотя он не живой и не имеет попы. Так что, поди ж пойми, что стоит, что лежит, а что сидит.
Уважаемый автор, Вы написали статью затронув достаточно интересную тему, хоть и напутали с терминологией.
teology довольно резкий собеседник, хотя его аргументы имеют смысл с инженерной точки зрения
Я занимаюсь системами ИИ и нейросетями 13 лет, это моя работа и хобби.
И могу сказать Вам, что Вы правы, сегодня методы компьютерного зрения это инструмент решения прикладных и инженерных задач в узкоспециализированной области — обработки видео и изображений.
А вот нейросети — это методология решение фундаментальной задачи поиска от интерполяции до поиска закономерности в данных, другими словами поиска функции зависимости Y от Х. И как пытался донести teology множеством {Y}, {X} может быть все что угодно.
Все 7 пунктов «проблем» которые вы указали имеют решение в современной теории ИИ.

Так почему же Сильного ИИ все еще нет?
Я Вам дам пищу для ума, и если Вам будет интересно можете почитать и поразмышлять на досуге.

Смысл в том, что в теории ИИ до сих пор нет «времени».
Логика и нечеткая логика вообще не имеет такого понятия как Время.
Все виды нейросетей, кроме мало изученной области рекуррентных нейросетей не могут оперировать понятием времени.
По сути любая задача так красиво решающаяся алгоритмами машинного обучения сводится к задаче найти Y от Х. Получить из плохой фотографии хорошую. Получить класс объекта. В задаче «Спрогнозировать Y по Х» только человек знает, что Y это некоторое возможное будущее значения показания стрелки некоторого условного параметра на некотором условном приборе, и не более того.
А понятие времени вводится только с помощью обучения алгоритма методом:
найти Y от {Х[t0], X[t-1], X[t-2]}.
И как легко можно заметить данный подход имеет сильные ограничения. Например, изображение будет анализироваться только по 1,2 или n кадрам. И чем больше n, тем пропорционально сложнее решение с вычислительной точки зрения. Потому в большинстве прикладных задач оперируют жестко ограниченным набором данных из прошлого, а подавляющее большинство алгоритмов и методов вообще не учитывает прошлые состояния.
То есть все методы работают со статическими состояниями объектов.

С точки зрения философии и психологии:
Заметьте человек практически основную долю вербальной информацию подает в форме выражения «действий». Встал, проснулся, позавтракал, пошел на роботу… Сижу, смотрю, бежит, встаю, подхожу, спрашиваю, не отвечает…

В то время как весь мир программирования оперирует «состоянием объекта», а действие выражается созданием программистом функции, которая при запуске изменяет состояние объекта методом присваивания переменным новых значений, вводя объект в новое статическое состояние. Это даже имеет соответствующее название «программирование машины состояний».
Если Х=«Красный» ТОГДА Y=747
Есть новое течение темпоральные логики высших порядков, возможно они дадут нам решение данной проблемы.
Мой прогноз, что задатки сильного ИИ появятся в течении 5-7 лет. А до 2100 ИИ станет самым разумным существом во вселенной человека.
Sign up to leave a comment.

Articles

Change theme settings