Зачем тут эта внутренняя кухня, ещё и с фотографиями?
Чтобы люди, которых будут приглашать на работу, знали с чем им придётся столкнуться, и десять раз подумали.
Чтобы руководство может быть всё-таки обратило внимание, и стало лучше относиться к сотрудникам, особенно тем, которые делают работу.
Чтобы, в идеале, паразиты и сволочи хотя бы что-то получили в ответ.
После таких комментариев создаётся впечатление о идиотизме комментирующего.
Странно об авторе судить, не понимая, из-за чего это написано и закрывая глаза на факты, которые описаны.
Если вы такой суровый — устраивайтесь в вышеописанную компанию.
Да, похоже вы правы. Без нелинейности два слоя возможно свести к линейной функции, которую может представить и один слой. Разве что, параметров больше.
Но у автора так, видимо он забыл.
Добавление активации (например, 'tanh') немного улучшает качество предсказания.
Да, но это уже является предсказанием временного ряда, и количество пропущенных шагов сетки зависит от того, насколько сдвинуто окно предсказания: там есть свои особенности.
Я так понял, статья довольно старая, т.к. на том-же keras.io и в книге самого Шолле активация уже не выделяется в отдельный слой, а передается параметром слоя.
Нет, вывод неверный. Статья от 02.2019. Активацию возможно указать без отдельного слоя года с 2016, если не ошибаюсь, тут видимо привычка.
Напомню, что это перевод. Но параметр, вероятно, подбирался эмпирически. Некоторые параметры очевидно, почему такие, например размер ядра 3x3 — потому, что клетка в центре зависит от соседей по бокам.
За время меньше? Теоретически — да. Если скорость предсказания выше (например, за счет аппаратуры, когда сеть на GPU, алгоритм на CPU, либо за счет оптимизаций), а пересчет всего поля сетью ведется параллельно.
Чтобы люди, которых будут приглашать на работу, знали с чем им придётся столкнуться, и десять раз подумали.
Чтобы руководство может быть всё-таки обратило внимание, и стало лучше относиться к сотрудникам, особенно тем, которые делают работу.
Чтобы, в идеале, паразиты и сволочи хотя бы что-то получили в ответ.
Спасибо, исправил.
А бывает и лучше.
После таких комментариев создаётся впечатление о идиотизме комментирующего.
Странно об авторе судить, не понимая, из-за чего это написано и закрывая глаза на факты, которые описаны.
Если вы такой суровый — устраивайтесь в вышеописанную компанию.
Да, похоже вы правы. Без нелинейности два слоя возможно свести к линейной функции, которую может представить и один слой. Разве что, параметров больше.
Но у автора так, видимо он забыл.
Добавление активации (например, 'tanh') немного улучшает качество предсказания.
Добавил.
Да, но это уже является предсказанием временного ряда, и количество пропущенных шагов сетки зависит от того, насколько сдвинуто окно предсказания: там есть свои особенности.
https://kite.com/python/docs/tensorflow.keras.Sequential.predict_classes
Нет, вывод неверный. Статья от 02.2019. Активацию возможно указать без отдельного слоя года с 2016, если не ошибаюсь, тут видимо привычка.
Напомню, что это перевод. Но параметр, вероятно, подбирался эмпирически. Некоторые параметры очевидно, почему такие, например размер ядра 3x3 — потому, что клетка в центре зависит от соседей по бокам.
Исправил.
Смотрите эпиграф.
Имеется ввиду, предсказывать временной ряд?
Не знаю, сам не занимался, статей на эту тему не видел, и сам этот клеточный автомат вижу первый раз, почитаю, спасибо за наводку.