Как стать автором
Обновить

Комментарии 27

Хороший, годный пост на хорошую, правильную тему.
Спасибо!
НЛО прилетело и опубликовало эту надпись здесь
«Задача классификации (или, как ее иногда называют, задача кластеризации)»

Есть разница. При классификации набор классов задан с самого начала, по-моему.
Вы правы, при классификации классы почти всегда известны изначально. Однако же, не всегда.
НЛО прилетело и опубликовало эту надпись здесь
Поправил, спасибо за уточнение.
В Desicion trees совсем другой алгоритм и совсем другие задачи, поэтому нельзя утверждать что они используются только для классификации, так же как и SVM может использоваться для многих задач: классификации, кластеризации, предсказания свойства
Вроде бы у них на сайте были еще разные интересные data sets для тестирования классификатора.
НЛО прилетело и опубликовало эту надпись здесь
Я еще планирую про классификатор RVM (Relevance Vector Machine) написать. А после этого можно и обзорно-сравнивающую статью сделать.
Про RVM было бы интересно. В целом +1.
А где видео?
Наверное, браузер по каким-то причинам не отображает. Оригинальная ссылка вот.
Спасибо. Теперь кстати и браузер отображает.
Автору плюс. Скажите, а есть ли какие-нибудь критерии выбора ядра. Я имею ввиду какие-либо аналитические методы. Или только на-глаз?
Интересно, надо сохранить на будущее :)
Я не встречал нормальных работающих методов для выбора ядра. Видел лишь пару статей на тему «имеется конкретное ядро с какими-то параметрами. Как выбрать эти параметры наилучшим способом для уменьшения ошибки классификации.»
Если бы еще и kernel можно было всегда выбрать просто все бы задачи по классификации были бы уже решены) Не бывает универсального классификатора к сожалению. Так что kernel функцию придется всегда выбирать в зависимости от задачи. В целом если feature space уже изначально досточно большой обычно используется линейный kernel (что логично).

Когда изучала данную тему мне очень помогли слайды from Andrew Moore www.autonlab.org/tutorials/
(может не самые стильные зато доступные — вообще рекомендую)
Ага, no free lunch theorem :)
Посмотрел слайды, неплохо написано. И многие интересные темы освещены.
Насколько мне известно, некоторые дополнительные материалы по теме можно найти, например, в книге Фукунга К. «Введение в статистическую теорию распознавания образов».
Статья хорошая. Статистические методы распознавания сейчас нередко игнорируются в пользу нейронных сетей, а это не всегда правильно.
Спасибо за ссылку, обязательно гляну.
Да, мне тоже не всегда нравятся нейронные сети :)
Не blackbox единым…
Самая главная статья это В.М. Вапник «The Nature of Statistical Learning Theory»
точнее книга
Только вот в перечислении ядер зачем-то отделено Гауссово ядро от ядра на основе радиально-базисной функции, хотя они эквивалентны. Пруфлинк
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории