Как стать автором
Обновить

Комментарии 25

Может тут стоит попробовать автоматически генерировать 3d модель окружающей среды по данным датчиков (камеры, лидеры) и прогонять модель в каком-нибудь физическом движке…
маленькие дети прекрасно понимают что если перевернуть стакан с соком будет ата-та,
иерархию подчинения понимают намного раньше(методом приучения), чем получат ответы.
потом из них вырастают взрослые дядьки, только в моем окружении, только за прошлую неделю- один из которых варил лестницу в погребе, обложенном торфом-погреба больше нет, другой решил спилить торчащие в гаражной яме остатки арматур, какая нафиг разница что яма промаслена в сало и что в ней стоит тазик с какой то горючкой-теперь лежит не шевелясь(и это еще легко отделался, так сказать обманул эволюцию)… для того чтобы двигать дело вперед-люди идут на вероятностные решения зачастую с позиции авось(конечно не без глупостей, видимо в силу своей ограниченности)… машинам будет нелегко, нужно больше датчиков(не только визуальных), чтобы понимать например разделение сред в стакане, формы, устойчивости систем и факторы способные эти системы вывести из равновесия, дальше все несколько проще-предсказать как отдельные элементы поведут себя при данных условиях(которые тоже нужно не просто запомнить, а время от времени сверять, не изменилось ли что)… будут ли машины работать с вероятностными событиями? будет забавно на это посмотреть
А что произойдёт, если спилить арматуру в промасленной яме? Её же не газовой горелкой спиливают. Искры? Нагрев от трения? Откуда возьмётся огонь? Правда интересно.
Я думаю, что от искр сначала воспламенились пары горючего в тазике, а промасленная яма являлась лишь вишенкой на торте — для полного и окончательного уничтожения объекта. Хозяин, к счастью, успел выбраться, а вот гараж теперь наверное придётся строить заново.
Болгаркой ее спиливают, и искры от нее вполне могут поджечь плотную сухую ткань, а уж пары от какого-то тазика — плевое дело.
Видимо вы никогда болгаркой приличную сталь не резали — там такой фонтан искр с диска летит, примерно как от бенгальских огней. Разница только что огни во все стороны, а тут относительно направленный сноп искр получается но зато «бъющий» дальше чем от бенгальских.

Вот так примерно это обычно выглядит если сталь более-менее твердая(с начала 2й минуты если метка времени не сработает): https://youtu.be/jeIdF1xlLb8?t=2m
Исследователи придумали костыль. Вот ежели бы оный робот сам бы мог строить модели, исходя из собственного опыта, причём не только модели комнаты с мебелью — вот тогда бы было другое дело.
Что значит «сам бы мог» по отношению к наличию/отсутствию зеркальных нейронов? Они (нейроны) должны самозародиться или как? Если уж так подходить, то у нас тоже такой «костыль» имеется, и мы вполне примеряем на себя чужой опыт.
Начнём с того, что нас интересуют не сами зеркальные нейроны, а механизм обучения путём созерцания чужого (да и не только чужого) опыта. В котором у нас с вами _гипотетически_ принимают участие зеркальные нейроны. Как справедливо заметили в каментах к соседнему посту, упоминание зеркальных нейронов всуе ничего не объясняет. Ибо как они работают и как работает упомянутый механизм — это на сегодняшний день тайна за семью печатями.

Что хорошего в этом смысле можем мы и не может машина? Мы можем сами выстраивать в мозгу различного рода модели, а затем их использовать. А что мы видим здесь? Модель уже задана добрыми программистами, а нейросеть только учится сопоставлять фотографии предварительно размеченным состояниям модели. Ежели вдруг надо будет не тумбочки двигать, а, скажем, в преферанс играть — то модель отправится в унитаз, и надо будет ручками задавать ещё одну модель (и не факт, что она хорошо себя покажет). Тогда как мы с вами можем даже по словесному описанию составить модель. А затем уточнять её сообразно полученному опыту. Что в обсуждаемом случае, насколько я понял, напрочь отсутствует. Другими словами, я здесь не увидел ничего сколько-либо революционного, чего раньше не умели нейронные сети.
Вы здесь говорите об оптимизационных задачах ИИ, но почему-то подразумеваете создание искусственного разума. Как только ИР появится, конечно, он должен будет без всякой подгонки модели решать любую задачу, которую способен решать разум естественный. А пока серебряной пули нет, так что давайте без фантастики.
Вот уж извините. Статья называется «Машины как дети..» и размещена в хабе «Искусственный интеллект». Что как бы подразумевает, что нам сейчас будут толкать нечто, претендующее ежели не на разгадку тайны интеллекта, то по крайней мере на сколько-либо заметное продвижение на оном поприще. На что, собственно, и повёлся предыдущий оратор, упомянув всуе зеркальные нейроны. А я ему собственно и ответствовал, что ничего хоть сколько-либо прорывного и приближающего машины к человеческой способности учиться я в статье не увидел.

> А пока серебряной пули нет, так что давайте без фантастики.

Ну это, серебряную-то пулю тоже должен кто-то делать. А ежели сделать не получается, то по крайней мере можно пообсуждать. Для чего, на мой взгляд, и служат подобные статьи и каменты под ними.
Да это все путь «делать по подобию», копирование у старших ))) — чтобы вырасти самим
Исследователи такие исследователи! Еще с 90х готов в области игровых ИИ (например гонки) только так и живут. Рассчитывают физику в будущее и выбирают лучшую траекторию. То же самое в шахматах — дерево решений.
Ну да, в заглавии написано про последствия своих действий, хотя обсуждение идет именно механики окружающего мира. Последнее, конечно, можно смоделировать.

Вообще, эта статья про ученого изнасиловавшего журналиста.
«Маленькие дети прекрасно понимают, что будет, если перевернуть стакан с соком. А вот машины нет.»

Маленькие дети понимают это только после обучения. В чём здесь принципиальная разница с машиной?
Маленькая поправочка — после самообучения. Маленькие дети (до 3-х лет) совершают, на первый взгляд, совершенно глупые и бессмысленные вещи (бросят там что-нибудь, кота за ухо подергают и т.д.). Так вот, они делают действие и смотрят, что будет. Получают первичные навыки работы с окружающей средой. Подобные механизмы в принципе, возможно реализовать у ИИ.
Хотел бы посмотреть на робоясли, где сотни новеньких роботов дёргают манекены котов за ушей, кидают мячики и суют робо-пальцы в робо-розетку
Посмотрите на любого чат-бота — они вас явно чему-то научат, и необязательно хорошему :)
Абсолютно верно, чтобы начать понимать, что будет, если перевернуть стакан с соком — его нужно несколько раз опрокинуть.
хо-хо, ждал подобной новости давно. ии делает симуляцию развития ситуации. осталось только заставить его включать самого себя как объект симуляции — и феномен сознания будет на монитор (лицо), йу-ххууу
НЛО прилетело и опубликовало эту надпись здесь
Несмотря на все многообразие современных алгоритмов компьютер не в состоянии предсказать последствия того либо иного своего действия. Конечно, если этот компьютер специально не обучить.
Ну есть же в шахматах какой-то самообучающийся алгоритм. Там просто необходимо предсказывать последствия не только своих действий, но и противника.
Задача интеллекта — предсказание в условиях неполных и противоречивых данных. Это не значит, что нет неинтеллектуальных алгоритмов, способных к предсказанию конкретной задачи в условиях неполных данных. При игре против идеального переборного алгоритма, способного оценить все возможные ходы в шахматах, оппонент-человек в общем случае не сможет определить, играет он против интеллектуальной системы или переборной.
Это действительно шаг в сторону сильного ИИ. Нужно еще включить в модель Я, причем определенным(непонятно каким) образом. Еще нужна подсистема для общения на каком-то языке. А также подсистемы постановки целей, переключения контекста по ассоциациям и многое другое. В наших мозгах все это, судя по разным поломкам(синдромы Котара, Капгра, дислексия, аутизм...) сделано на уровне архитектуры. Найдем правильный способ способ сложить кирпичики — получим сильный ИИ. А подлежащий слой может быть каким угодно, и вовсе не обязательно это должны быть модные нынче нейронные сети.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории