Pull to refresh

Comments 18

Я так понимаю, они рассматривают только вентральный (канал «что?») зрительный путь, игнорируя дорсальный («где?», «как?» и «насколько быстро?»). Типа если картинка одна, объект на ней один, а фон левый, то мы достаточно абстрагировались от «дорсальных свойств». На мой взгляд, очень сильное упрощение, в живом эти пути не изолированы друг от друга, и «помогают» друг другу как в работе так и в обучении. И кстати, функция вычленения поворота объекта относится скорее к дорсальному пути.
И можно абстрагироваться от реализации, выражаясь другим языком: режим обучения не естественный. Живые сети обучаются на видео а не на фотоальбомах.
Но тем более интересно, что за сходство они там намерили.
Да, безусловно это крайне упрощённая модель и цели повторить метод обучения в мозге не стоит — мы про это слишком мало пониманием. Скорее, аналогия проводится на уровне «если у нас система научилась неким способом, то она начинает быть больше похожа на живые нейроны которые научились неким неизвестным способом». Т.е сравнивается результат обучения, а не процесс.
До чего техника дошла — реальный мозг изучают с помощью ИНС :)
А вообще, к теме превосходства роботов над человеком — в некоторые задачах по computer vision машины уже обходят человека. Например, то же распознавание лиц. Хотя мозг еще очень устойчив к масштабированию и поворотам изображения. Когда ИНС получат такие же возможности, это будет прорывом.
Superhuman performance нейросетей в некоторых задачах не очень относится к обсуждаемой теме. Но у меня ощущение, что просто у нас датасета хорошего пока нет, чтобы объекты были повёрнуты всеми возможными способами. Масштабирование RCNN уже прилично решают, мне кажется.
Superhuman performance нейросетей в некоторых задачах не очень относится к обсуждаемой теме.
Но у меня ощущение, что просто у нас датасета хорошего пока нет, чтобы объекты были повернуты всеми возможными способами. Масштабирование RCNN уже прилично решают, мне кажется.
Ну братья Райд тоже брали для вдохновления крылья птиц. а теперь мы запускаем ракеты в космос вообще без крыльев. Но нужно было с чего-то начать. Мы можем лучше распознать изображения чем мозг, но хотим для начала именно мозг повторить, даже в тех местах где он хуже, ведь вдруг, раз у нас лучше, то мы что-то упускаем?
А вот любопытно… Помнится была статья про оптические иллюзии для нейронных сетей. Когда на вход сети подавался специально подобранный мусор, который разпознавался ей как определённое изображение.
Можно ли с помощью такой штуки найти подобные иллюзии для человека (и существуют ли они вообще)?
Я о таком не слышал, и это было бы очень странно — adversarial examples для CNN приспосабливается к деталям конкретных обученных весов, без полной с точностью до конкретных параметров модели кортекса такое не подобрать.

Ну и вообще, не следует проводить аналогии между искусственными и биологическими нейросетями слишком далеко
Сходу нагуглилась вот эта: http://www.newit.info/neyronnyie-seti-opticheskie-illyuzii-obman-ili-obuchenie/
Вроде тут она тоже была, не помню.

Понятно, что прямой аналогии никто не ждёт, но вполне возможно что какая-то всё таки существует. Простые иллюзии у нас точно работают, сложные обычно уже обычно требуют или повреждений мозга (как в книге «Человек перепутавший жену со шляпой» например) или галлюциногенов (не уверен, что тут их можно считать иллюзией, но они есть).

Однако (думаю все иногда на это попадались) бывают ситуации когда кажется, что видишь что-то одно и только присмотревшись понимаешь свою ошибку. Быть может реально подобрать такие условия в которых этот эффект будет более навязчивым.
Не, что такое adversarial examples (то, о чем статья по вашему линку) — достаточно понятно.
Я не слышал именно том, чтобы таким методом получилась что-то, на чем ошибается человек. Обычно adversarial examples приводят в пример как раз обратного — мол, что это за обучение такое, если его обмануть гораздо проще человека.
Как уже писали выше — мозг человека опознаёт объект более комплексно, так что и иллюзия очевидно должна быть гораздо сложнее. Я имел ввиду не конкретно эту систему, а саму принципиальную возможность. Например если со временем расширить метод одновременно на все части, ответвенные за зрение. Обычно чем лучше знаешь, как оно работает, тем проще понять как это сломать.
Про принципиальную возможность будущими методами комментировать сложно :)
Можно только сказать, что текущие методы нахождения таких примеров применимы плохо — они требует точного знания всех параметров модели, симулировать и сканировать мозг с такой точностью можно будет очень нескоро.
Неужели вы в детстве не смотрели на облака?
Облака и т.п. — это не то. Там не возникает сомнений, что это именно облака, а не то, что в них можно увидеть. Инетересна именно полная иллюзия что это и есть то, чем кажется.
Есть данные, что вспоминание и воображение объекта активирует те же области мозга, что и непосредственное восприятие.
Не очень, однако иногда путает. Кот — завтрак больше всего понравился, хоть есть и другие забавные примеры. Попугаи — еда, кекс — растение, яблоко — лампочка, булка — блондинка и т.д.
Кстати и с собакой кекс один раз перепутан.
Ну и это как раз наглядный пример того, что под каждую систему нужны примеры оптимизированные именно под неё. Мы тоже легко различаем то, что ставит в тупик нейронку.
Sign up to leave a comment.

Articles