Pull to refresh

Comments 29

но через 12 часов виртуальную машину у вас заберут и все данные внутри контейнера будут потеряны.

За 12 часов ничему серьезному сеть научить не получится, даже на такой мощной тесле. Больше маркетинга, чем халявы.
Можно снова запустить, тот же самый ноутбук, подмонтировать google drive и продолжить обучение из последнего checkpointa.

Этот процесс можно даже автоматизировать простым скриптом по таймеру. Думаю уже кто-то сделал и скоро выложит. Правда лавочку могут и прикрыть.

А учитывая возможность майнить… Точно прикроют :)
Или научатся эвристическим анализом распознавать большую часть ядер CUDA/OpenCL предназначенных для майнинга. Думаю, что Google — это по силам :)
«к Jupyter ноутбукам», «над kaggle задачами», «в docker контейнере» — вот откуда этот порядок слов?
«13G видеопамяти» — может имелось в виду «13<пробел>GB видеопамяти» или «13<пробел>ГБ видеопамяти»?
«tcp тунеля» — тут даже браузер подчёркивает красной волнистой линией.
И полное игнорирование заглавных букв в названиях сервисов.

В личку писать не буду, всё равно почти никто не исправляет.
Мы же не говорим «в Samsung телевизорах», «в Metallica альбомах», «в Ford автомобилях». Или уже говорим? :)
Купите себе б/у Nvidia TESLA M2090 за 10 т.р. на авите или еще где и экспериментируйте прямо на своем компе.
и во сколько раз она медленнее? Это я просто думаю, что может стоит купить.
Это если вам нужен «вычислитель» с двойной точностью. Поиграть в в бегалки-стрелялки на ней нельзя. :)

Для глубокого обучения двойная точность не нужна. Прелесть Tesla — в большом объеме памяти.

По количеству cuda ядер относительно недорогие 1050ti и 1060 и частотах выигрывают в старых Tesla. Искал сравнения, не нашел.
По ядрам сравнения некорректные, 1050ti в вычислениях с двойной точностью — 83 GFlops, 1080ti — 250 GFlops, Tesla M2090 — 667 Gflops. В тесле 6ГБ оперативки с ECC. Тесла — чистый вычислитель или в CUDA или OpenCL.
Николаса Кейджа можно будет вставить в фильм про супермена на такой машине?
Идите дальше, Николас Кейдж как раз не был монтажом, просто фильм не стали снимать. Может ли нейросеть сама снять фильм?
Николас Кейдж как раз не был монтажом

да, но в итоге его в фильм не взяли, а посмотреть хочется.

Но вообще меня интересует такая возможность в принципе. Можно ли использовать предоставленные мощности для таких целей.
Не стоит смотреть. Тем более с кейджем. Он умудряется даже призрачного гонщика сделать скучным, а тут изначально персонаж без недостатков.
Спасибо огромное за статью, у меня как раз закончились мощности на домашнем компьютере, а эти машины считают в раз десять быстрее.

У меня возник вопрос. Я когда пытаюсь показать картинку с помощью matplotlib, получаю вот такую ошибку, вы сталкивались с чем-то подобным?
AttributeError: 'numpy.ndarray' object has no attribute 'mask'


У меня стоит старый matplotlib 1.5.3 и кастомный numpy-1.13.3+mkl, если я обновляюсь к последним версиям из pip-репозитория, то и дома получаю эту ошибку. Как только возвращаюсь к исходным — все в порядке…
На амазоне можно за пару долларов в час взять V100, он побыстрее будет.
Бесплатно. Бесплатно! Как много в слове этом!
Поигрался, отличное начинание! Продукт пока что сырой, kernel часто падает и зависает. Для простых экспериментов норм, но не больше.
Код для запуска tensorboard выдаёт ошибку:
Archive: ngrok-stable-linux-amd64.zip
inflating: ngrok
Traceback (most recent call last):
File "", line 1, in IndexError: list index out of range
Спасибо за статью! Потестить за бесплатно, это здорово.

Проясните пожалуйста один момент, если в нем есть понимание.
Попробовал сравнить производительность обучения на CPU, TPU и GPU инстансах.
И по ощущения GPU обучает сеть примерно в 3-5 раз быстрее чем CPU, а вот разницы между TPU и CPU я не увидел.
Или для TPU нужен специальный класс задач?
Прошу заранее сильно не пинать, но где и как указать «model_dir». За два дня гугления и поиска по хабру так и не сообразил как заставить premade_estimator.py писать чекпойнты на google drive
Only those users with full accounts are able to leave comments. Log in, please.