Pull to refresh

Comments 22

(не совсем по теме) Красивые графики, в чем рисовал?
Мне подсказали — seaborn — https://seaborn.pydata.org/
Сразу не признал
достаточно сделать
import seaborn

и графики matplotlib-а уже меняются (даже стайл можно не сетить)

Жаль, что я с Кочетковым столько прибухивал, а не линейку вкуривал. Супер!

wow
such imagination
much logic
many memes
wow
хорошая картинка, не понятно чо минусуют
Думаю, человеку, плохо знакомому с машинным обучением будет крайне сложно переработать такое количество информации (даже при должной математической подготовке). Но вот для освежения знаний статья подходит просто отлично. Спасибо!
Будет здорово, если Вы освятите в таком же стиле и другие разделы машинного обучения, например некоторые методы кластеризации и классификации. Будет интересно прочитать статью, аля, «ликбез по нейронным сетям».
Спасибо огромное за Ваш труд!

Во имя распространения знаний и на благо братьям и сестрам освЯтим!

А тех, кто будет заниматься этим освящением, можно называть «Data Saints».
Спасибо за статью и нотбуки!

Особенно порадовало это: "Состекаем несколько логрегрессоров в один слой — получим softmax regression/max entropy regression."
Крутая статья, спасибо! Но пожалуйста, поменяйте ссылку на меня так, чтобы она вела не на папку с pdf'ками, я не насколько тру олдскульный учёный. :) Вот сюда можно, например:
http://logic.pdmi.ras.ru/~sergey/teaching/mlkfu2014.html

p.s. «сигмойд» и «неронная сеть» — это тонко :)
А можете подсказать откуда в формуле после
Эмпирический риск (функция стоимости) принимает форму среднеквадратичной ошибки:

берётся деление на 2? Никак не могу понять откуда эта двойка берётся
объяснения два, простое и верное:
— что бы сократилась двойка при дифференцировании (целевую функцию можно умножать на любую константу, и это не повлияет на решение задачу оптимизации)
— если копнуть в природу среднеквадратичной ошибки, то окажется, что ее минимизация — это тоже самое что и максимизация логарифма правдоподобия нормальных распределений, а у нормального распределения под экспонентой находится 1/2, и эта двойка всплывет при логарифмировании именно в том месте, где вы ее видите (совпадение?..)
Sign up to leave a comment.