Pull to refresh

Comments 12

А было бы интересно узнать, насколько каждый конкретный прием улучшил модель, и насколько финальная сборка лучше чем самая лучшая простая модель?
Примерно так:
лучшая single модель без TTA — 0.9294
финальный ансамбль — 0.93378
топ1 — 0.93448

Про каждый прием не скажу, увы
Получается, что в большинстве случаев в индустрии всеми оптимизациями из статьи заниматься даже вредно, и это все просто спорт? Так как усложненный pipeline инференца и ретренировки из описания поддерживать дороже, чем профит от него если модель ненагруженная, а если нагруженная, то инференс очень дорогой.
Вовсе нет. Статья как раз про то, как получить сильную одну модель, которая сама по себе показывает выдающийся сингл перфоманс. Если отладить процесс обучения, то поддерживать его не надо. Snapshot Ensembling можно заменить на усреднение весов.
Единственное, что не применимо для нагруженного прода в чистом виде — ТТА. Но опять же есть ситуации, когда нужно получить максимальное качество, а будет считать 1 секунду или 10 — не важно (медицина, оффлайн обработка изображений).
Вот, кстати, python notebook с результатом 0,9327 (правда это данные с самой выборки, но насколько я помню у него практически такой же результат был).
С TTA, одна модель, resnet34, обученная за 16 эпох от Джереми Ховарда (у него хороший курс для начинающих fast.ai и одноименная библиотека)
github.com/fastai/fastai/blob/master/courses/dl1/planet_cv.ipynb
Законил это соревнование Джереми на 22м месте.
Да, возможно, я скорее про то, как немного усилий требуется с его библиотекой, чтобы вполне приличный результат получить. А дальше, да, конечно, каждая тысячная (вероятно) дается с большим трудом
В соревновании по-моему пробовали строить мозаику из изображений. Вы использовали нарезку из мозаики?
Да, пробовали использовать, но конкретно у нас это не особо давало профит. У других команд лучше получалось.
с территорий стран Brazil, Peru, Uruguay, Colombia, Venezuela, Guyana, Bolivia, and Ecuador
Недоперевели?
Исправил. Спасибо!
Sign up to leave a comment.