Pull to refresh

Comments 25

Интересно, такой инструмент можно применить в таком конкурсе от ФПИ?

Или потребуется больше времени чем 15 минут?

Конкурс
Боюсь ссылка не прикрепилась к вопросу. По лицам который? Нет, это немного другая задача. Для этого шаблона в DIGITS нет)
Ссылку увидел. Про сетку которая детектирует объекты я завтра расскажу. С ней не всё так просто.
А так, всё всегда зависит от датасета. Хороший датасет — можно сетку за пару дней запустить. Плохой — с ним можно месяц провозиться.
Уровень знаний упал до «скачал — включил — распознал» уже с появлением caffe, мне кажется. Но, в любой нестандартной ситуации, все-равно необходимо ковырять внутренности в независимости от того, какая библиотека используется.
Так работает если надо понять «котик на картинке или Петя». В конкурсах kaggle такое уже не сработает, в SDC тоже, в медицине аналогично. Т.е., побаловаться да— можно дёшево и имея поверхностное представление о том что делаешь.
Баловство баловством, но тем не менее какую-нибудь Призму уже можно сделать не разбираясь особо в том, как нейросетки работают, а просто форкнув открытый репозиторий с гитхаба и припилив его к веб-сервису и мобильному приложению.
Не согласен дважды.
Во-первых, с тем, что Призма— не баловство.
Во-вторых, что и её можно сделать не разбираясь особо. В копировании стиля художников больше «математики», чем «кода». То же выделение признаков. Не обладая знаниями теории это невозможно: скопировать мазки, цвета, паттерны. И как это превратить в фичи и засунуть в архитектуру сети, ну а потом реализовать в коде.
Конечно, style-transfer это сложная математическая задача, бесспорно. Я про то, что разработчики Призмы её не решали (насколько я знаю), а использовали уже готовое решение. А под не-баловством я подразумевал, что это конечный продукт, который может заинтересовать пользователя (пусть даже и в развлекательных целях).
А есть что-то такое для text processing/generation?
Я не знаю. Думаю, что есть просто собираемые фреймворки/экземплы. Но вряд ли это то, что NVIDIA и прочие игроки хотят на базовом уровне поддерживать.
Открыл статью, ушел пить чай на 15 минут, пришел, стал супер-мега-про машинного обучения! *profit*
Не получится, в 15-минутном процессе зашита как минимум развлекуха на пару часов :)
На самом деле, у меня ушло пол часа на то что бы разобраться как это собрать.

Заголовок настолько отчаянно-жёлтый, что даже и не вызывает отторжения.

ни разу не понял следующий момент.
Ну обучил я сеть, всё пучком, но как использовать потом данные?
В какую сеть грузить?
Сегодня вечером будет пример в следующей статье. Там все просто, строчек 15кода.
Вы её, пожалуйста, как-нибудь также пожелтее обзовите. Чтоб в глаза бросалось. Ну или сюда отпишите как запостите.

А то мне тоже не очень понятно, чё дальше-то с полученной моделью делать…
Так уже же! https://habrahabr.ru/company/recognitor/blog/312472/
Или заголовок не настолько жёлтым вышел?
Модель как использовать там в конце написано.
А цифры на картинках эта штука быстро разгадает?
Еще есть такая штука https://deepdetect.com/

Практический вопрос — какая минимальная карточка Nvidia для этого нужна?

Думаю, что на гигах 4х памяти можно завести, но с трудом. Желательно хотя бы 6. На 8 — уже нормально.
А дальше — чем больше, тем лучше)
Sign up to leave a comment.

Articles