Как стать автором
Обновить

Самое главное о нейронных сетях. Лекция в Яндексе

Время на прочтение 30 мин
Количество просмотров 184K
Всего голосов 136: ↑133 и ↓3 +130
Комментарии 16

Комментарии 16

Что за тупой троллинг? Это же нифига не мадагаскарская кошка! Автор не владеет материалом, лень было чтоли загуглить как выглядит настоящая мадагаскарская кошка?
Там изображен лемур, он вхожит в отряд приматов и поэтому действительно ближе к обезьянам, чем к кошкам.
Безусловно, это самый важный аспект лекции, без которого она абсолютно теряет смысл!
В и так не точном пересказе Лекуна изначально смысла было мало.А за ошибками и вообще почти не осталось.
Нет, ну как можно околонаучную статью строить на обывательских мифах!? Мыши не любят сыр более всего, он просто очень пахуч и легче ими обнаруживается!
Яндекс, у вас NN-бот убежал и пишет комментарии на хабре.

Если бы ссылки под слайдами были бы кликабельными, было бы еще круче. Спасибо за отличный материал.

Чет намудрили со сверточными сетями. Не так они работают
Большинство рокет-саенсовых областей работает по принципу динамического программирования:
1) Мы не знаем, как решать конкретно эту задачу.
2) Давай разобьем её на более мелкие.
3) Берем задачу поменьше.
4) goto 1)
Очень интересная статья, все время хочу попробовать, но вся эта математика пугает.
С чего начать изучать машинное обучение программисту без серьезной мат. подготовки? В универе нейросети тяжело давались. Сейчас закончил изучать R, основы descriptive statistics и inferential statistics, куда дальше двигаться?
1) Теоретическая подготовка (курсы или учебники).
2) Практиковаться при решении задач. Берете какую-нибудь задачу, которая вам интересна, и пробуете ее решить. Так же очень полезно участие в различных контестах (тот же http://mlbootcamp.ru/, недавно открыли задачи в режиме песочницы).
Прямо серьезная мат.подготовка нужна в случае, если вы будете разрабатывать новые методы, а для использования в прикладных задачах хватает базовой линейной алгебры, статистики и мат.анализа.

Начинайте, как и все, с курса Andrew Ng. После него захочется порешать какое-то соревнование на Kaggle. Потом наверняка захочется понимать, что же все-таки происходит, и тогда можно браться за Хасти и Тибширани — "The Elements of Statistical Learning".

Это классическая картинка из https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf. Автор тут не причем.
А чем еще занимается Яндекс в плане Computer Vision кроме поиска по картинкам?
Зарегистрируйтесь на Хабре , чтобы оставить комментарий