Pull to refresh

Comments 8

Вот так наоптимизирует гиперпараметры, а потом в продакшене будет работать из рук вон плохо.
Понимать надо, что делаешь, а не полагаться на «магию черного ящика».

Не могли бы вы обозначить что почитать про понимание гиперпараметров?

Понимать надо, что делаешь, а не полагаться на «магию черного ящика».

А смысл тогда в подобных алгоритмах?
Чтобы работал алгоритм с высокой точностью, надо данных побольше собрать и запустить процесс.
Или вы параметры всех моделей вручную меняете?

Ответов я так понимаю можно не ждать после столь спорных заявлений?

В лучших домах ЛондОна картинки принято нумеровать, чтобы можно было ссылаться, а также давать легенду, чтобы не заставлять читателя искать цвета графика в исходном коде

Во-первых, спасибо за информацию по Xgboost-AutoTune.
Во-вторых, очень тронул следующий момент:
«Что ж, к сожалению, многие дата-сайенс специалисты являются мастерами на все руки, их работа очень часто включает в себя поиск данных, их очистку, приём данных, выбор модели для использования, кодирование модели, написание скрипта для настройки модели, развёртывание модели, представление модели бизнесу и бог знает что ещё.»

В моем печальном опыте еще есть следующие пункты вдобавок:
(P.S. захотел я очень интересную задачу CV — контроль дефектов сварного шва. Ознакомиться можно по ссылке: www.facebook.com/tverVZ/posts/3681312381960965 )
1. Составить бюджет проекта + дорожная карта
2. Разработать мобильный стенд для съемки DataSet(у меня там специфичная камера Basler, которая никак не предназначена для мобильности), туда же найти человека на производстве, который будет ходить и собирать дату.
3. Сделать приложение для разметки данных(семантическая сегментация), туда же найти людей на ГПХ разметку и построить весь процесс. А потом еще пришлось дособирать данные и самому размечать.
4. Естественно, разработать и обучить нейронки(у меня там целый каскад). Никакое трансферное обучение и известные архитектуры не помогли в силу специфики задачи.
5. Интегрироваться в закрытое ПО Metrolog X4 i-Robot + OPC + робот + лазерный трекер и 3D-сканер.
6. Найти человека на ГПХ и проработать с ним веб-интерфейс пользовательской части. После чего все увязать в одну систему.
7. А сейчас еще пишу программу опытной эксплуатации и параллельно дотачиваю нейронки((((

И на это все 7 месяцев. Товарищи, это АД! Подумайте несколько раз о команде и сроках, если, вдруг, захотите себе интересный проект.
P.S. Прошу прощения — НАКИПЕЛО

А какая у библиотеки скорость работы? Как именно библиотека выполняет поиск гиперпараметров(стандартный гридсерч или что-то поинтереснее)? Есть ли смысл пользоваться ей вместо стандартных методов поиска гиперпараметров, например, из sklearn'а(или написания своего собственного)?

В 2021 году нашли библиотеку, автор которой последний коммит внесла в этот репозиторий аж 3 года назад! Сомневаюсь, что мир Data Science всё это время стоял на месте. Пользуйтесь с осторожностью, протрите пыль для начала ;)
Sign up to leave a comment.