Как стать автором
Обновить

Комментарии 5

Да, с картинками понятней
Картинки, это вообще очень важно в анализе данных. Очень часто помогают найти ошибку или улучшить качество. Правда бывает, что не просто сходу картинку такую придумать))
Спасибо за понятно написанную статью и индуктивный подход к изложению материала.
Как говорится, «Вы там сговорились, что ли?», буквально на днях на хабре статья про ЕМ была.

Для ЕМ алгоритма есть очень хороший и простой пример — метод к средних. Он не использует вероятностную трактовку, но в целом имеет схожую структуру.

Вообще, ЕМ алгоритм — это довольно общая штука. Представьте, что вы как-то разметили данные и обучили на этом некоторую статистическую модель. В некоторых ситуациях может так получиться, что если вы этой же моделью разметите обучающую выборку, а потом переучите модель на новой разметке, то модель станет лучше. В общем то, зациклив эту процедуру и получается ЕМ алгоритм, кластеризацией он не ограничен. Я вот довольно много работаю со скрытыми марковскими цепями, там есть хороший аналог — алгоритм Баума-Велша.

А так, мне кажется, что мануал хороший!

P. S. У вас там кажется пару раз $j$ встречается, видимо забыли $inline$ написать. На мой взгляд в заглавной картинке ну уж очень мерзким шрифтом формулы написаны
Спасибо за развернутый отзыв.

Статью, о которой Вы говорите, я не видел, собственно поэтому и решил заполнить нишу. Поищу, посмотрю что там))

Метод k-means действительно очень хорошо иллюстрирует работу EM-алгоритма, однако про k-means уже столько написано, что было решено его даже не упоминать))

Насчет более широкого применения EM-алгоритма в статье упоминается. Но должен признаться — я сам еще прохожу курсы и поэтому не богат практическим опытом. Было бы чего, то конечно бы написал как метод работает на практике. Думаю когда-то и такие статьи появятся.

Значки долларов убрал, действительно, оЧепятка)) спасибо

А за картинку извините))
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории