Комментарии 4
Будет отлично, если вы приведете код к PEP-8, это умеет делать PyCharm, также есть отдельные тулзы.

По теме — меня в свое время этот курс Ына приятно поразил, я понял, что ML вообще и нейронные сети в частности — чистая математика, безо всякой квантово-тороидальной (/sarcasm) магии.
Не минусуйте, PEP-8 это хорошо

Да, те, кто работает с нейронными сетями делятся на 2 лагеря: для одних нейронная сеть предсказывает выходные значения, а для других вычисляет :)
Добрый день. А подскажите пожалуйста как работать с весами непосредственно для тестирования. Как я понял это nn['theta'] с индексами [1] и [2]. И так же что делать если веса получаются слишком большими? И как можно отделить тренировочную часть от части тестирования (распознавания)
Здравствуйте.
Фактически нейронные сети (и данный модуль в том числе) работают в 2х режимах: обучение (backpropagation) и работа :) (run) при котором не происходит изменения весов. Поэтому отделить часть тестирования просто: для неё не надо вызывать метод backpropagation, тогда веса не будут обновляться, запускайте только метод run

Веса зависят от данных которые вы подаете на вход + случайная компонента, так как метод градиентного спуска ищет не абсолютный минимум ошибки, а ближайший, поэтому возможна ситуация при которой сеть остается на уровне локального минимума функции ошибки, решается переопределением весов.

thetha это веса, правильно, при этом количество индексов зависит от количества слоёв в нейронной сети и количества нейронов. То есть может быть произвольным
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.