Комментарии 10
При такой глубоко проработанной математике, неприятный осадок от Вашего проекта оставляют чисто технические «опечатки»:
— одна и та же статья может вновь быть показана мне через 2-3 дня (вне зависимости от моего выбора)
— настройки запрета авторов не сохраняются и почти сразу после того, как я отписался от одного из фотографов снова и снова «приходят» его фото
— одна и та же статья может вновь быть показана мне через 2-3 дня (вне зависимости от моего выбора)
— настройки запрета авторов не сохраняются и почти сразу после того, как я отписался от одного из фотографов снова и снова «приходят» его фото
0
Привет. Вы бы не могли прислать в личку пару примеров статей, которые показываются повторно?
0
Аналогично. Бывают случаи, когда уже прочитанная несколько дней назад статья с лайком появляется снова. Возможно, это копии статей на разных ресурсах — очевидно, такие дубликаты должны «объединяться»
0
Последняя иллюстрация, про которую Вы пишете, есть в документе Sean Borman «The Expectation Maximization Algorithm A short tutorial»
0
Сергей, спасибо за интересную статью!
Мне только непонятно, откуда на M-шаге брать \alpha_0 и \beta_0? Какие значения хорошо работают? Просто \alpha_0= 1/|c| и \beta_0=1/(|V|*|C|)? И правильно же я понимаю, что параметр \beta относится одновременно к слову и категории, то есть всего бет в системе |V|*|C|?
Мне только непонятно, откуда на M-шаге брать \alpha_0 и \beta_0? Какие значения хорошо работают? Просто \alpha_0= 1/|c| и \beta_0=1/(|V|*|C|)? И правильно же я понимаю, что параметр \beta относится одновременно к слову и категории, то есть всего бет в системе |V|*|C|?
0
Зарегистрируйтесь на Хабре , чтобы оставить комментарий
Вероятностные модели: от наивного Байеса к LDA, часть 1