Комментарии 50
Вы взяли очень простую модель, нарекли ее свойства словом «интуиция», а потом лихо сделали вывод, что машина может обладать той же самой интуицией, что и человек. Однако настоящая интуиция содержит в себе гораздо больше, чем все эти перечисленные машинные алгоритмы.
Машина может обладать той же самой интуицией, что и человек

Не той. Другой. Машинной. И алгоритмов гораздо больше, чем я перечислил.

Интуиция не есть Озарение
Ну тогда к чему все эти жонглирования терминологией? Если эта машинная «интуиция» совсем другая, назовите это свойство иначе, без претензии на.
Кстати. Хорошая идея — придумать термин для машинной интуиции, дабы не вводить в заблуждение юных отроков)
Все названия уже давно придуманы. А вот переназывать их, чтобы «очеловечить» и приписать сознание машинам — вот это реально может «ввести в заблуждение юных отроков».
Все названия уже давно придуманы

Вы не могли бы их озвучить?
А то мне не удается найти их.
Вы уж напрягитесь сами, изыщите время на самостоятельное изучение темы. Хотя это стоило бы сделать вам до написания этой «прорывной/революционной» статьи.
Думаю «интуиция» это более сложное свойство, а то что вы описали это скорее «индукция» или быстрое неосмысленное предположение. Слушал лекцию описывающую процесс генерации решений на основе двух составляющих человеческой личности. Быстрая, требующая минимума ресурсов, но дающая верный ответ только для простых и часто задаваемых вопросов. И медленная, требующая много ресурсов, выдающая ответ на основе цепочки логических умозаключений.
Человеческая Личность, если взглянуть совсем приземленно, это состояние его нейросети, память+постоянные вычисления и изменения в коре мозга.
Интуиция без опыта не работает — иначе бы все дети (ну или малая часть) после рождения сразу могли водить авто или рулить страной. Увы — таких случаев не зарегистрировано.
Быстрая, требующая минимума ресурсов

Это реакция типа дать обидчику в морду.
И медленная, требующая много ресурсов

Превратить обидчика в друга )

Не каждая личность сможет сделать второе, да и первое, учитывая современный УК + физическое развитие))
Я противник Цифрового бессмертия.

Если скопировать модель мозга/сознание в машину, чтобы не потерять уникального ученого… может быть. В ином случае потеря для человечества. Это вариант.
А просто переносить Душу в машину — смысл? Для этого есть уже механизм… говорят)
Мы не сайлоны всетаки.

Хотя и великие, как показывает практика, заблуждались.
Свое время — свои мысли.
Мы должны нести будущим поколениям Опыт, а не Черный Ящик, которым его добыли.
1.Не копирование, а перенос, миграция через сращивание мозга с компьютером.
2. Если посмотреть на цифровое бессмертие с такой стороны:
Человечество должно расти и развиваться и прежде всего интеллектуально. Раньше отдельного обучения практически не требовалось. Если и были ученые (философы), то они были «специалистами» практически по всем вопросам физического мира. Потом объем знаний увеличился, потребовались церковно-приходские школы. Ученые разделились на механиков, химиков, физиков и тд.
Сейчас человек учится почти 20 лет только для того что бы занять среднее положение в обществе. Ученым нужно практически всю жизнь непрерывно изучать какую то малую часть научной специализации и во второй половине жизни он достигают передовых рубежей на ничтожном по размеру участке научного знания и еще не факт, что сможет сделать новый шаг в научном познании.
Вот и вопрос: Еще немного и жизни человека не хватит для продвижения науки на один шаг. Понятно, человечество создаст машины, занимающиеся научным поиском (сайлоны, ИИ или что то еще). Дальше пропадет смысл учиться среднему человеку, он все равно не сможет понять как устроена техника и такой средний человек перестанет учиться.
И что делать в таком случае, вот я и думаю что цифровое бессмертие, это не избавление от биологической смерти направленное на предоставление возможности бесконечно «валять дурака», а предоставление возможности расти интеллектуально и продвигать человеческую цивилизацию.
Не копирование, а перенос

А в чем разница?
Человечество должно расти и развиваться и прежде всего интеллектуально

Это почему?)) Кто такую цель поставил Человечеству?
Сейчас человек учится почти 20 лет только для того что бы занять среднее положение в обществе

Некоторые и за всю жизнь так не подымаются. Кто сказал что это так необходимо? Каждый занимает свою нишу в жизни. Социальная эволюция.
Дальше пропадет смысл учиться среднему человеку, он все равно не сможет понять как устроена техника и такой средний человек перестанет учиться.

Это ближе к реальности. Машины заменяют во многих сферах людей.
Паровой мотор заменил лошадей, потом ДВС, калькуляторы, ксероксы…
Но появляются новые задачи.
По большему счету, используюя Tensorflow сегодня практически любой человек сможет обучить нейросеть. Точнее кто умеет пользоваться компом и редактором уровня notepad.
Немного обучить готовить датасеты, разметку картинок, сделать какой-нибудь веб интерфейс для упрощения.
Возьмите MS AutoML.

Я против Цифрового бессмертия. Это мое мнение. Но это не значит что я как луддиты буду ему мешать. Вероятно у него будет своя ниша.

ИИ я вижу как инструмент для расширения возможностей человека.
Например:
-на ТЭЦ ГПЗ срабатывает за 0,1 сек при отклонений кондиций пара — человек за это время не сможет даже осознать это, даже если будет мониторить 24/7/365
-рукописные символы машина уже распознает уже лучше человека (ввод данных в банке)
-лица и другие объекты в видеопотоке машина ищет быстрее (охранные системы).
продвигать человеческую цивилизацию

Непонятно куда или перед кем, но это неплохая цель)
Да. Есть такое.
Разговор ведь про машинный интеллект.
Это один из вариантов описать мыслительные процессы, происходящие у нас в голове.
Кое-что уже работает похоже — по крайней мере судя по результатам.
Дистрибутивная семантика — это ОЧЕНЬ про машинный «интеллект», точнее обучение. Это и word2vec и LSTM на RNN, и многое другое. Андрей Карпатый начинал эти исследования, сейчас он руководит подразделением ИИ у Маска (того самого, который «как тебе это»).
ОЧЕНЬ про машинный «интеллект», точнее обучение

Я об этом и говорю. Кесарю кесарево.

Про Карпатого не слышал, а в остальном очень даже «в теме».
Пытался например недавно задачу «в лоб» решить с помощью ГА.
Там, по сути, функциональный поиск, семантика.
Все это здорово!
Но вот вопрос, какую цель Вы преследуете?
Имитация ИИ? Пройти тест Тьюринга? Сделать бота?
Я, если позволите, не буду раскрывать свои цели)
Ближе всего «Сделать бота».
Меня интересует обработка информации, исследования, изобретения, оптимизация.
В т.ч. и человеческого поведения. Производства в частности.
Ну, на самом деле, мы принимаем +- все решения «интуитивно». Мы получаем на вход некоторые данные (раздражения\стимулы) и решение к нам приходит не сквозь какие-то точные рассчеты, а через «black box» нашего подсознания. Некоторые решения в некоторой степени мы можем скоррелирировать более формальными рассуждениями нашего сознаниями, но это, конечно, куда реже (иначе мы бы не маялись ерундой, не прокрастинировали, делали бы только хорошо и не делали бы плохо).
И в этом смысле, те же ИНС тоже принимают все решения «интуитивно».
Есть только одна деталь: человек может объяснить свои решения, а нейронная сеть — нет. И в этом довольно большая проблема.
Да! Точно!
Мы в это уперлись. Пытаемся понять чего там напридумывал ИИ.

А зачем?
Мы ведь для этого и делаем ИИ. Ставим цели, подаем данные, получаем black box.
Далее используем его как модуль.

Вы ведь не знаете как работает ваш мобильник, холодильник, автомобиль.
Даже если и знаете частично и сможете что то починить из перечисленного — не факт, что вы сможете его создать.
Даже если вы инженер, техник в некой области — большинство людей могут только кнопку нажать.
И сильно не парятся)
Разница есть существенная. Работа автомобиля понятна от принципов до механизмов и может быть бесконечно уточняема в понимании. Это как с масштабом карты — укрупняем (приближаемся) — получаем больше деталей. У сети «понятийного» масштаба нет, она однородна.
Работа автомобиля понятна от принципов до механизмов и может быть бесконечно уточняема в понимании.

Понятна кому? Инженерам-механикам? И всё.

Ровно так же понятны и нейросети.
Лишь малому количеству математиков и программистов.
Остальные используют их, но вряд ли понимают до конца.
Это если о современных нейросетях. Помимо их еще есть куча алгоритмов и подходов.
Многие про них даже не слышали.
Нет. Физические модели могут быть понятны любому человеку, который хочет в них разобраться. Нейронная сеть (больше пары слоев) с количеством нейронов больше нескольких — уже невозможно понять. Даже те, которые якобы имеют архитектуры, похожие на природные (типа CNN). Нейронная сеть — это просто аппроксиматор, а мозг и мышление — нет.
Нейронная сеть (больше пары слоев) с количеством нейронов больше нескольких — уже невозможно понять.

Да не нужно этого делать. Нам нужен результат.

Надо быстро найти преступника в толпе — нейросетка через bodycam успешно это делает в Китае.
Мне надо найти оптимальный маршрут — Яндекс.Карты.
Надо распознать документ — ABBY.
Какая мне разница как это происходит?

Если тут вопрос паранойи, что ИИ захватит Мир и уничтожит Человечество…
Так мы сами неплохо с этим справляемся. Не надо допускать ЕГО к военным и другим опасным задачам.

Если вы считаете что деятельность людей безопасна — вспомните откуда появился COVID-19, ядерная бомба, химическое оружие.

Есть задачи и ресурсы.
Надо определиться с целями.
Без рассуждений и объяснений не будет и результата. Сейчас в мире ИИ (по сути) решается только один тип задач — классификация. И то с дырами по типу adversarial attacks, где измнения пары пикселей в картинке приводит к изменению решению. Мы пока вообще не знаем, как выглядит архитектура мышления.
с дырами по типу adversarial attacks, где измнения пары пикселей в картинке приводит к изменению решению.

И эта проблема решаема. Обучают с частично закрытыми частями, GAN, мусор/шум добавляется итп.
Лица уже успешно распознаются под масками.

Мы пока вообще не знаем, как выглядит архитектура мышления.

Нашего — да.
А простое предположение, что снижению ошибки НС как функции-сумматора, поиск экстремумов энергии НС вроде как работает)

Работает — почему не использовать.
Очень плохо работает. В основном (как многое из ML) на учебных задачах. Мышление — это моделирование мира, ML — это всего лишь маленькая часть его [моделирования]. Вообще не главная.
Очень плохо работает.

Значит мы опять не дооцениваем сложность задачи. Надо больше параметров, вариантов.
Мышление — это моделирование мира

Откуда такая информация и как это описать алгоритмически?
ML — это всего лишь маленькая часть его [моделирования]. Вообще не главная

А что, по-вашему, главное?

Человек может объяснить свои действия? Не смешите тапочки!)
Может ли Лионель Месси объяснить, как он так хорошо забивает со стандартных положений?))

В Ваших оценках есть только 0 и 1. И Вы никогда ничему не учились по объяснениям. Тогда понятно, почему в Ваших оценках есть только 0 и 1 )))))))

Извините, но вы говорите, что человек ВСЕГДА может объяснить свои действия (строго логическая единица), а я вам подсказываю, что далеко не факт (значение 0,01, ближе к нулю). И про какие 0/1 вы мне завираете???

Месси тоже может объяснить свои действия. Другое дело 1) будет ли он прав 2) поймете ли Вы его 3) сможете ли Вы по этому объяснению их повторить, 4) насколько эти объяснения будут подробными и т.д. и т.п.

Если Вы не можете объяснить каких-то своих действий Вам срочно нужно обратиться к врачу… это добрый совет…
Это забавно)
Такой тонкий переход на личности.
Честно говоря, от Вас я надеялся услышать какой-нибудь достойный ответ.
По делу… желательно, учитывая Ваш опыт.
Просто рефлексия у человека упирается во вменяемость и дееспособность.
Это юридическая составляющая способности объяснения своих действий.
Есть и когнитивные составляющие. Из-за того, что ув. teology аппелирует к своим тапочкам, я не вижу смысла что-то ему объяснять… )))
А по мне так он прав. Причем тут тапочки.
Суть в том, что зачастую профессионал — плохой учитель и наоборот.
Не говоря уже о том, что «конфигурация» может этот опыт не принимать.
Если человек не в состоянии объяснить свои действия — он не профессионал. Ну и, конечно, учить и объяснять — это тоже разные вещи.
Нет, не понял. Понимаете, в задачах самое главное — уровень достаточности. Если мы занимается разметкой контлована под здание, то 5 см — это хорошая погрешность в координации. Если проектируем печатную плату — уже нет. )))

Простите меня, мне скучно это объяснять… в другой раз…
Скучно или Вы намекаете на моё скудоумие?))

Профессионал, который может объяснить — это ученый уровня… Профессор.
Профессионал, который может создавать девайсы — это инженер уровня… эээ… ммм)
Маленькая тонкость — у инженера может быть не развит навык передачи знаний. Все они могут быть на уровне тааааких абстракций, что описать сложно. Ему будет просто некогда.
Ну что Вы, скудоумия я вообще не встречал в своей жизни. Отстутствие знания и навыков — этого много. Скучно потому, что нужно слишком много пластов поднимать. И там чем глубже, тем нетривиальнее, придется не просто рассказывать, а убеждать и «доказывать». А это тяжело и неблагодарно, я работал доцентом. ))) Не долго. ))))))

Давайте кратко. Объяснять — это создавать модель. А это мышление и есть. Если в каком-то процессе Вы использовали мышление (а мы о нем говорим), это на 100% означает, что Вы можете объяснить свои действия. Тонкости начинаются в достаточности, адекватности и прочем. Но модель есть всегда. И эта модель — это результат мышления.
Есть только одна деталь: человек может объяснить свои решения, а нейронная сеть — нет. И в этом довольно большая проблема.

:-)
И там чем глубже, тем нетривиальнее, придется не просто рассказывать, а убеждать и «доказывать». А это тяжело и неблагодарно, я работал доцентом. ))) Не долго. ))))))

То о чем я и сказал выше.
Что же говорить о НС? Она штука довольно не благодарная))

Если говорить, что без нашего понимания и контроля ИНС/ИИ выйдет в области знаний, в которые мы никогда на вышли бы — так это хорошо. Это расширение нашего «контроля над Вселенной» — модули, созданные ИИ будут работать и без нашего понимания)
Так в этом и проблема, что они работают довольно плохо. А вторая часть аспекта, о котором я говорю, что заставить их работать хорошо можно только через «объяснения». ))))
заставить их работать хорошо можно только через «объяснения».

Каким образом? В чем это выражается? )
Если упрощать, то это выражается в том, что GAN и reinforcement learning — это наиболее мощные и перспективные подходы на сегодняшний день.
AutoML?
Рандомные конфигурации и их некий… отбор? Это используется? Какие перспективы?
Я был у H2O в гостях, беседовал с разработчиками. Вечер мы на это убили. Было весело. Тут нужно понимать (на мой вкус) так: для типичных задач ML — это будет работать. Как перспектива Общего ИИ — нет.
То что мы называем Интуицией на самом деле просто опыт. Это просто отточенная нейронная сеть нашего мозга, который находит решение, но не может отследить путь, которым он к этому решению пришел. Наглядный пример — довольно распространенная практика лозоходства. Это когда с помощью лозы или рамки находят воду или полезные ископаемые. Выглядит со стороны как магия или сверхспособности. Но на практике все сводится к обычной тренировке по распознания косвенных признаков наличия воды под землёй (например, трава слегка зеленее и и.п.).
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.