Комментарии 15
Выглядит так, как будто основное время занимает спецификация модели и программирование тензора.
Что у TF есть на счёт тестирования модели? Постоценки?
Ответ попал в соседний комментарий. В общем, каких-то специальных инструментов нет, всё делается ручками, но самое неудобное имхо — это разделение выборки на обучение и контроль.
Тестирование приходится делать отдельно — в коде примеров я для этого откладывал часть выборки и отдельно прогонял вычисление функции потерь.
Короче это перевод материала с гитхаба, метки перевода не наблюдаю…
месье, потрудитесь привести ссылку на оригинал, иначе вы ценитель мужской красоты, если вы понимаете о чем я
https://www.tensorflow.org/images/getting_started_final.png взято из https://www.tensorflow.org/get_started/get_started#the_computational_graph

Да и вообще все изложение оригинального https://www.tensorflow.org/get_started/get_started так или иначе повторяет начало статьи.

вас не смущает, что в современных учебниках по математике часто говорят о том же, о чем писал Гаусс в своих работах?

и кстати раз уж вы привели ссылки, потрудитесь теперь указать на то, какой параграф данного текста является переводом соответствующего текста оригинала? иначе вы все еще останетесь ценителем накаченных мужских ягодиц
Я, кстати, недавно проверял исходный код TensorFlow с помощью PVS-Studio и нашёл несколько любопытных мест. Может быть кому-то будет интересно. Ссылка на статью.

А кто-то с Джеффом Дином бухал. Ему тоже здесь откоментить?

Комментарий выше писался при температуре. Прошу прощения.

Спасибо за статью, хорошая отправная точка для начинающих!


Однако, было бы супер здорово, если бы вы рассказали, где бы я мог обойтись тем же Keras поверх TF, а где TF все-таки был бы предпочтительнее. Что-то вроде rules of thumb.


И чем переход Keras в руки TF теперь грозит для развития фреймворка и коммьюнити?

Кстати, на следующей неделе скорее всего будет статья и про Керас в нашем блоге.
Подписывайтесь, чтоб не пропустить.
У меня не было особо большого опыта в использовании keras в связке с TF, больше пригождалась высокоуровневая библиотека tflearn, но это было еще до всех этих объединений, в районе версии TF 0.12.
Предположу, что идея использования высокоуровневых библиотек придет сама, когда вам надоест описывать 10 раз один и тот же полносвязный слой в TF. Однако что-то нестандартное(чего еще нет в keras/sklearn) придется писать руками в TF. А потом внести это в тот же keras.

Касательно судьбы keras вместе с TF — я бы не сказал, что библиотека перешла под контроль гугла/TF. keras теперь стал высокоуровневой библиотекой с поддержкой и theano, и TF. Возможно, скорее вымрет tflearn.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Информация

Дата основания
Местоположение
Россия
Сайт
ods.ai
Численность
5 001–10 000 человек
Дата регистрации

Блог на Хабре