Как стать автором
Обновить
7
0

Пользователь

Отправить сообщение
Зачем тут эта внутренняя кухня, ещё и с фотографиями?

Чтобы люди, которых будут приглашать на работу, знали с чем им придётся столкнуться, и десять раз подумали.
Чтобы руководство может быть всё-таки обратило внимание, и стало лучше относиться к сотрудникам, особенно тем, которые делают работу.
Чтобы, в идеале, паразиты и сволочи хотя бы что-то получили в ответ.


И, да, пиджак надевают, а не одевают.

Спасибо, исправил.

А бывает и лучше.

После таких комментариев создаётся впечатление о идиотизме комментирующего.
Странно об авторе судить, не понимая, из-за чего это написано и закрывая глаза на факты, которые описаны.
Если вы такой суровый — устраивайтесь в вышеописанную компанию.

Да, похоже вы правы. Без нелинейности два слоя возможно свести к линейной функции, которую может представить и один слой. Разве что, параметров больше.
Но у автора так, видимо он забыл.
Добавление активации (например, 'tanh') немного улучшает качество предсказания.

Да, но это уже является предсказанием временного ряда, и количество пропущенных шагов сетки зависит от того, насколько сдвинуто окно предсказания: там есть свои особенности.

Что такое model.predict_classes? Не нашел описания на сайте keras.io.

https://kite.com/python/docs/tensorflow.keras.Sequential.predict_classes


Я так понял, статья довольно старая, т.к. на том-же keras.io и в книге самого Шолле активация уже не выделяется в отдельный слой, а передается параметром слоя.

Нет, вывод неверный. Статья от 02.2019. Активацию возможно указать без отдельного слоя года с 2016, если не ошибаюсь, тут видимо привычка.

Напомню, что это перевод. Но параметр, вероятно, подбирался эмпирически. Некоторые параметры очевидно, почему такие, например размер ядра 3x3 — потому, что клетка в центре зависит от соседей по бокам.

Моделировать такой простой детерминированный алгоритм нейросеткой — это как то грустно, хотя я и не специалист чтобы судить.

Смотрите эпиграф.


А если попробовать скармливать в обучающем наборе последующий шаг как input и требовать от нейросети предыдущий как output?

Имеется ввиду, предсказывать временной ряд?


(тогда наверное все поле должно быть в качестве input layer). Получится ли таким способом искать сады Эдема?

Не знаю, сам не занимался, статей на эту тему не видел, и сам этот клеточный автомат вижу первый раз, почитаю, спасибо за наводку.

За время меньше? Теоретически — да. Если скорость предсказания выше (например, за счет аппаратуры, когда сеть на GPU, алгоритм на CPU, либо за счет оптимизаций), а пересчет всего поля сетью ведется параллельно.
Это перевод. Делал сам нечто подобное. С padding='same' точность достигает порядка 91%. Не знаю, как автор получил 98%.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность