Pull to refresh

Comments 18

UFO just landed and posted this here
Спасибо!
Ну, тут что значит «выучить». Научиться запускать сетку и несколько примеров. В том же Caffe это можно делать вообще из bash + текстовый редактор файла сети. Да и в TF не сложнее.
Плюс на tf таки питоновская обёртка есть.
Многим людям хватает этого чтобы сказать «я знаю TF».
UFO just landed and posted this here

TF реализован на С++. А вот клиентская библиотека самая продвинутая у него — на питоне. Что считать «чистым TF»?


Или я что то путаю?

UFO just landed and posted this here
Страничка www.tensorflow.org/api_docs намекает, что API на питоне — это #1, остальное (даже С++) — это немного не дотягивает. Так что — самое хардкорное и полноценное использование TF — это задействовать API через питон. Впрочем, не суть важно
UFO just landed and posted this here
Тут термин «враппер» используется не в смысле «питон обертка над С++ кодом», а в смысле «набор классов для быстрого создания нейросети (Keras/TFLearn) над computational graph фреймворком (Tensorflow)»
На пути к естественному интеллекту встаёт несколько вопросов.
нейросеть, как я понимать — фактически строит какую то модель и выдаёт набор агрегированным статистических данных. и что бы данные были более корректными их кормит специально обученный человек ( специальное едой ).

1. но если данные хорошо формализуются ( номер авто, количество темных пятен в крови...)- то это одно, а если данные формально толком не описать то насколько качественной получится статистика?
2. пример из жизни.
есть автодороги. надо получить качественный граф дорог.
алгоритм по спутнику нашёл пути. построил подобие графа дорог. формально всё выглядит неплохо.
Но вот работать с полученной выборкой не получится. качество графа дорог будет таким, что либо в нём где то будут дырки, или он будет избыточным и тормозным. в итоге всё равно придётся делать формальную модел==граф дорог полуручным способом. что бы можно было решать NP полную задачу про коммивояжера.
3. пробежав по макушкам статей складывается ощущение, что присутсвуют попытки выдать старый годный алгоритм за результат работы ML. сколько в нейросететях хайпа?
4. где можно почитать о траблах с нейросеткам?
В пункте про специализацию не хватает «рядового гребца», который будет делать простейшую модель и интегрировать ее в существующие бэкенды компании. Для этого не нужен высокий рейтинг на Kaggle или знание всех последних статей про модные архитектуры, нужно быть нормальным программистом и сколько-нибудь понимать базовые нюансы ML (на уровне понимания Rules of ML).

Ну и про запуск и понимание простых сетей за 1-2 недели — это преуменьшение; это скорее месяцы.
Ресёрчер, на мой взгляд, включает в себя и тех кто разрабатывает простые модельки, тех кто разрабатывает сложные и тех кто делает исследования. Пунктом выше по сути идёт классификация того что он может делать и каким быть.
Я согласен, что есть сети которые сложно понять до уровня повторения и обучить за 1-2 недели, те же ubernet|mtcnn. Но даже их можно запустить за пару дней/потестить и начать ориентироваться в том как они устроены.
Когда я в первый раз применял какой-то AlexNet, году в 2014 где-то, при этом запускал его без видеокарты, на каком-то странном фреймворке (tinycnn(?)), то никакой особой сложности сделать это за 2 вечера и получить хороший результат по моим данным у меня тогда не вызвало.
Наверное для людей без базового знания программирования, математики — это будет сложно. Но всё же, мне кажется, что 1-2 недели — это реальный срок.

Терминологию линейных программистов, дельцов и т. д. вы взяли из готовой статьи на хабре или гиктаймс. Поставьте ссылку, плз

Чукча не читатель, чукча писатель?
Сразу скажу, что совсем ничего не знаю про эту область. Но зацепила одна фраза:
До 2012 года нейронных сетей в современном понимании не существовало.
Я примерно 10-11 лет назад зачитывался нейронными сетями (тогда как раз в универе хайп по этому поводу поднялся), в т.ч. про неокогнитрон, удивляясь, как давно эта схема была предложена и какая она умная в смысле computer vision (точнее так в статьях/книгах писали. Максимум, что я сам делал — многослойный перцептрон). А что означает, что до 2012 года нейронных сетей в современном понимании не существовало? Имелось ввиду как раз появление инструментов для работы?
1) Инструменты. Точнее возможность запуска на видюхах адекватная. Это где-то 10 год.
2) Победа в крупном конкурсе была 2012 для свёрточных архитектур. Ровно после этого всё резко начало двигаться и развиваться.
да, Вы правы. Неокогнитрон, Лекун добавил обратное распросранение к сверточным, функции активации подобрали, набили руку и вот в 2012 уже почти мейнстрим.
Sign up to leave a comment.