Pull to refresh

Comments 12

Вот нить рассуждения понятна, но очень уязвима.
то каким образом вы узнаете, как она принимает решения?
мы уже несколько тысяч лет пытаемся понять как люди принимают решения, а некоторые даже сами не могут понять почему так сделали.
Машинные системы не умеют объяснять свой ход решения определенной задачи.
Человек тоже многое не может объяснить как сделал, а иногда он заблуждается объясняя ход своих решений. Например «Ты почему не пошел к врачу, времени не было»
назовут Васькой, а не «Мегалорт бессмертный»
В группе моего сына, в садике самые простые имена Василина и Кирилл, а есть Амарант и Малипина.

А если серьезно, что есть человеческий разум, по сути обученная на примерах система. Очень уязвимая ко всяким обманам. Основное наше преимущество пока в встроенном генераторе энергии и возможности саморепликации.
По-мимо того, что «как» принимается решение не так уж важно, хочется заметить, что само утверждение ложно. Сейчас как раз развивается направление [self]-attention, которое направлено на генерацию интерпретируемых сетей (хотя это скорее всего нужно из практических побуждений, а не для ответа на философские вопросы).

На самом деле, то что мы называем человеческим интеллектом и искусственным отличается сильно в том смысле, что люди способны абстрактно мыслить, и создавать новое, порождать новые смыслы. И, кстати, о детях. Меня очень впечатлило, когда ребенок осознал понятия вроде сейчас, потом, много, нравится и тому подобное, которые для продукта машинного обучения на данный момент абсолютно недоступны. Текущий ии — инженерное приложение.

Если из статьи отжать всю воду и добавить своей, то все претензии к текущим ИИ-системам в том, что они — не универсальны. Вместо того, чтобы получить псевдоразум, программисты пошли тем же путём, что и создатели роботов — вместо универсальных человекоподобных роботов создают узкоспециализированные, но ЭФФЕКТИВНЫЕ решения. Если псевдоИИ не знает, что котиков чаще называют «слышь ты, брысь» а не «Бонапартий Цезарь сто сорок восьмой», то это всего лишь означает, что ему не ставили задачу на обучение «релевантность имен котиков».
Второе — думать, что сектор ИИ «вышел на плато» ошибочно, если не понять, как это будет развиваться дальше. А развиваться дальше оно будет не вверх, а вширь, а именно — либо объединение двух различных ИИ, обученных разным штукам для того, чтобы получить универсала сразу в двух отраслях, либо сразу создание универсального ИИ в смежных отраслях, когда ИИ, например, будет не только разбираться в котиках, но и в фотографиях остальных домашних животных.
думать, что сектор ИИ «вышел на плато» ошибочно, если не понять, как это будет развиваться дальше. А развиваться дальше оно будет не вверх, а вширь

Так это и есть понятие «плато», когда вы поднялись на какойто уровень и дальше не вверх продолжаете, а «вширь».
Машинное обучение — это просто Программирование 2.0, где вместо разработки логики и написания алгоритмов, программист готовит обучающие данные, подбирает модель, «обучает» ее, а потом проверяет на тестовых данных. Просто программирует, но иначе.

Машинное обучения — это не программирование, а аппроксимация некоторой функции. То есть, это просто ещё один подход к моделированию систем (статических или динамических). И, несмотря на то, что НС — идеальный аппроксиматор (ИА), существуют ещё и другие ИА, например fuzzy системы, которые пережили взлет и падение и теперь применяются там, где наиболее подходит. То, что происходит с НС — очень похоже и, скорее всего, конкретно этот инструмент найдёт свою нишу и будет жить в рамках нее (обработка изображений, распознавание речи и прочие обработки данных очень большой размерности и аппроксимация сложных неизвестных функций).


П.С. НС — достаточно хороший инструмент, но то как их обычно применяют (end-to-end) — боль.
П.П.С. я знаю о работах по снижению размерности (математически), но они не учитывают наличие знаний об объекте моделирования (да и тут вопрос не сколько в НС, сколько в том, что (точнее сколько от объекта) принять за "черный ящик".
В качестве примера: значительное увеличение качества распознавания сигналов (НС) при добавлении частотной и кепстральной области для анализа.

В машинном обучении нет нейронных сетей как модели, их очень много разных. Вы, скорее всего, имеете ввиду многослойный перцептрон (MLP). К сожалению, Вы не поняли, что именно я сказал. )))
Но не верите мне, прочитайте, что сказал по этому поводу руководитель ИИ Теслы
dev.by/news/programmnoe-obespechenie-2-0
Судя по ссылке, я все таки правильно вас понял.
«Программисты 2.0» из статьи — обезъянки за компьютером, которых принято называть «Оператор ПК», никакого отношения к разработке и реализации алгоритмов деятельность по обработке датасета не имеет.

Просто программирует, но иначе.


«Автоматический» поиск алгоритма в корне ничем не отличается от аппроксимации динамической системы, коей он по сути и является.

Разумеется любой подход имеет право на жизнь, но приведу простой пример: нужно построить модель маятника (физического, предположим на столе стоит оригинал). Есть два пути: первый построить модель на основе законов физики и динамики, второй сделать гору экспериментов и обучить НС. Замечу, что в обоих случаях будет присутствовать этап оценки (в первом случае подстройки) параметров, однако спеиалист по НС не может называться «физиком» просто потому, что он понятия не имеет как и почему маятник движется именно по таким законам.

И да, использование моделей машинного обучения (в том числе НС), как части модели — на мой взгляд вполне оправданный шаг в силу того, что Всегда в модели физического объекта есть некоторые нелинейности, которые невозможно(или сложно) описать математически или сложно выполнить оптимизацию аналитическим путем. Я категорически не понимаю желание (подход то я понимаю) строить модели машинного обучения, которые аппроксимируют давно известные аналитически функции, а не только неизвестные/сложные «части» системы.

И последнее: тратить время «программиста 2.0» на обработку датасета — очень дорогое удовольствие, ибо объем теоретических знаний для полноценного знания методов машинного обучения подразумевает зарпату несколько исключающую возможность использвоания такого работника в низкоквалифицированном труде.
Вижу, что Вы даже с помощью Андрей Карпаты не разобрались… :)
Как ни странно, причины терминологических недоразумений и, соответственно ложных предсказаний имеют вполне религиозные корни. Развитые религии (включая авраамические) не видят общности между людьми и прочими живыми существами. Потому не видна и общность разума и поведения животных.
На самом деле вполне просматривается цепочка развития: безусловный (врождённый) рефлекс, условный рефлекс (самообучение), разумные эпизоды (есть у всех млекопитающих и по крайней мере у многих птиц) и потом уже разум. Очевиднейшим образом ИИ соответствует на этой линейке условному рефлексу, не более (самообучение в конкретной предметной области). Так что даже до землеройки ещё неблизкий путь и все завывания про разумные машины слегка преждевременны.
Другая сторона вопроса, впрочем, тоже есть: и на этом, достигнутом, уровне ИИ коренным образом перевернёт всю жизнь человеков.
Не стоит определять состояние развития ИИ, его положение в мире по маркетинговым ходам торгашей. ИИ вполне себе развивается. Нам доступна лишь доступная нам информация об истинном положении.
Sign up to leave a comment.