Pull to refresh

Comments 13

название библиотеки, очень созвучно с названием рухнувшей финансовой пирамиды ))) Kairos Technologies
удачи вам и хорошего дня )))
>Начиналась разработка, как мы уже говорили, с Theano, но со временем добавился Tensorflow. Сейчас Keras по умолчанию работает именно с ним
А известно, почему перешли с Theano на TF?
Особенно это интересно в контексте:
>Также код Keras работает на Tensorflow пока медленнее, чем на Theano
История достаточно простая, кстати, она упомянута в статье — Google (кажется, в лице DeepMind) предложил Франсуа работу — чтобы он на полную ставку занимался развитием Keras. Из этого непосредственно следует переход на TF, как основной бэкенд.

То, что работает медленнее — это особенности реализации Keras API на TF. В новых версиях Keras и TF код будет более согласованным и, как следствие, быстрым.
О, спасибо
Это несколько забавно в свете того, что у DeepMind есть свой Sonnet (вроде как тоже обертка над TF)
Sonnet был открыт только на днях, а Keras уже полтора года существует в open-source.
Также стоит сказать, что Sonnet более удобен для своих задач, например, с рекуррентными сетями.

На мой взгляд Google может себе позволить разрабатывать внутри две конкурирующие библиотеки: больше конкуренции, выше качество. Так что все вокруг в плюсе, а для Google затраты несущественные.

Для тех кому интересно более детально почитать на тему развития глубокого обучения (последний график в статьей) в академической среде с точки зрения публикаций рекомендую статью — A Peek at Trends in Machine Learning

>Now is the time to submit paper on Fully Convolutional Encoder Decoder BatchNorm ResNet GAN applied to Style Transfer, optimized with Adam.
Это великолепно

А как мы в последнем примере получили 2-х мерные вектора если выход последнего слоя сети — 128?

Извиняюсь, конкретно для рисования этой картинки в последнем слое сети была выставлена размерность 2, поправим опечатку в коде.
Спасибо за статью. Можете пояснить, почему в embeddings лежат двумерные вектора? Это ведь выход Sequential, последний слой которого возвращает вектор размерности 128.
Прошу прощения, проглядел комментарий об этом же. Тем не менее, опечатка в коде так и не исправлена ;)

Подпись к графику: Там можно посмотреть, например, как менялся loss на валидационной выборке, но сам график показывает val_acc. Разве нет?

Sign up to leave a comment.