Спасибо за статью! Очень хотелось бы посмотреть на то как ваши модели конкурируют с тривиальными решениями (среднее, медиана, среднее последних N наблюдений) Иначе это смотрится как "мы сделали сетку в ретейле и молодцы. наверное... но это не точно" И очень классно было бы еще взглянуть на то, как соотносятся затраты на тяжелые модели с повышением качества прогнозирования.
А бустинг как обучали? На каждом ряде, на каком-то элементе иерархии, или все сразу запихнули?
Это очень опасный подход, потому что хранить данные можно по разному. Например, в одном проекте ~900М csv ужался до ~20M parquet. А количество данных для нашей задачи было очень большим.
Боюсь, что далеко не всегда такое пригодится. Достаточно часто нужно понимать что ты делаешь и зачем. И навык быстро сделать по скрипту здесь только мешает. У меня лично есть несколько занятных историй на этот счет.
Именно так, примерно в 2008 финансирование факультетов стало зависеть и от количества студентов на нем. Поэтому стали отчислять только "очень талантливых"
Видел похожее живьем. С одной стороны ломает мозг, а с другой впечатляет. Знаю девочку, которая ради фана положила в Anaplan простейшую сетку, обученную для классификации fashion mnist.
Но на практике, конечно, очень специфичный подход.
Если я не ошибаюсь, то после того как python ищет переменные в локальной области видимости и не находит, он поднимается на уровень выше. Поэтому и работает
Если я не ошибаюсь, то после того как python ищет переменные в области локальной видимости и не находит, он поднимается на уровень выше. Поэтому и работает
Спасибо за статью!
Очень хотелось бы посмотреть на то как ваши модели конкурируют с тривиальными решениями (среднее, медиана, среднее последних N наблюдений)
Иначе это смотрится как "мы сделали сетку в ретейле и молодцы. наверное... но это не точно"
И очень классно было бы еще взглянуть на то, как соотносятся затраты на тяжелые модели с повышением качества прогнозирования.
А бустинг как обучали? На каждом ряде, на каком-то элементе иерархии, или все сразу запихнули?
Ждем статью про нейронки :-)
Это очень опасный подход, потому что хранить данные можно по разному.
Например, в одном проекте ~900М csv ужался до ~20M parquet.
А количество данных для нашей задачи было очень большим.
Боюсь, что далеко не всегда такое пригодится. Достаточно часто нужно понимать что ты делаешь и зачем. И навык быстро сделать по скрипту здесь только мешает. У меня лично есть несколько занятных историй на этот счет.
А зачем вы руками создавали VGG? Здесь есть образовательный смысл или чем-то реализация из pytorch не подходит?
Именно так, примерно в 2008 финансирование факультетов стало зависеть и от количества студентов на нем.
Поэтому стали отчислять только "очень талантливых"
А меня одного смущает, что при проверке быстродействия мы смотрим на минимальное время?
Видел похожее живьем. С одной стороны ломает мозг, а с другой впечатляет.
Знаю девочку, которая ради фана положила в Anaplan простейшую сетку, обученную для классификации fashion mnist.
Но на практике, конечно, очень специфичный подход.
Кажется, что для MCS по сетям должна быть другая таблица