Как стать автором
Обновить

Комментарии 5

Разбиение датасета на 89 категорий (по признаку ос+процессор+размер памяти) и построение взвешенной по признаку time lad регрессии дало ошибку в 5.4% и 21 место. Знаю, что человек на третьем месте также использовал этот вариант, но с несколькими дополнениями.
Это отлично. Для меня это был первый опыт. Узнал много нового.
Но больше удивило, как люди получали более 15-20%. Когда варианты «в лоб» давали лучший результат.
Почти тоже самое: разбиение датасета на категории(по признаку ос+процессор+размер памяти), логарифмизация времени и сложности (m*n*k), RANSAC (от времени и сложности) — 5.8% 58 место
Ради интереса решил поучаствовать, чтобы испытать xgboost на деле. Сходу, после предобработки данных выхлоп составил ~10%, после подгонки параметров модели ~8.8%. Ну а дальше следовало строить стекованные модели, но внятных результатов получить не успел.
я использовал идею описанную в А. А. Сиднева, В. П. Гергеля «Автоматический выбор наиболее эффективных реализаций алгоритмов», с некоторыми модификациями, получил итоговые 5.7% и 44 место
Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации