Блог компании Open Data Science
Python
Алгоритмы
Математика
Машинное обучение
Комментарии 22
0
Мне подсказали — seaborn — https://seaborn.pydata.org/
Сразу не признал
0
достаточно сделать
import seaborn

и графики matplotlib-а уже меняются (даже стайл можно не сетить)
+2

Жаль, что я с Кочетковым столько прибухивал, а не линейку вкуривал. Супер!

+3
Думаю, человеку, плохо знакомому с машинным обучением будет крайне сложно переработать такое количество информации (даже при должной математической подготовке). Но вот для освежения знаний статья подходит просто отлично. Спасибо!
+4
Будет здорово, если Вы освятите в таком же стиле и другие разделы машинного обучения, например некоторые методы кластеризации и классификации. Будет интересно прочитать статью, аля, «ликбез по нейронным сетям».
Спасибо огромное за Ваш труд!
+3

Во имя распространения знаний и на благо братьям и сестрам освЯтим!

+1
А тех, кто будет заниматься этим освящением, можно называть «Data Saints».
+5
Спасибо за статью и нотбуки!

Особенно порадовало это: "Состекаем несколько логрегрессоров в один слой — получим softmax regression/max entropy regression."
+3
Крутая статья, спасибо! Но пожалуйста, поменяйте ссылку на меня так, чтобы она вела не на папку с pdf'ками, я не насколько тру олдскульный учёный. :) Вот сюда можно, например:
http://logic.pdmi.ras.ru/~sergey/teaching/mlkfu2014.html

p.s. «сигмойд» и «неронная сеть» — это тонко :)
0
А можете подсказать откуда в формуле после
Эмпирический риск (функция стоимости) принимает форму среднеквадратичной ошибки:

берётся деление на 2? Никак не могу понять откуда эта двойка берётся
+3
объяснения два, простое и верное:
— что бы сократилась двойка при дифференцировании (целевую функцию можно умножать на любую константу, и это не повлияет на решение задачу оптимизации)
— если копнуть в природу среднеквадратичной ошибки, то окажется, что ее минимизация — это тоже самое что и максимизация логарифма правдоподобия нормальных распределений, а у нормального распределения под экспонентой находится 1/2, и эта двойка всплывет при логарифмировании именно в том месте, где вы ее видите (совпадение?..)
Только полноправные пользователи могут оставлять комментарии. , пожалуйста.