Комментарии 30
Сам репозиторий github.com/tensorflow/tensorflow
+2
Один в один повторяет наш проект, который мы делали последние 3 года в Самсунге, перед тем как команда распалась — velesnet.ml Но в отличие от нас у Гугла есть на него ресурсы, так что желаю Джеффу Дину и компании успехов, в этой теме много чего интересного.
+5
Если бы ещё какая-нибудь фактическая информация о продукте была, а то пока выглядит как буклет написанный маркетологом, а если людям массово так покажется, то может получиться, что вреда от этого поста больше, чем пользы. :(
+2
Она есть здесь: googleresearch.blogspot.se/2015/11/tensorflow-googles-latest-machine_9.html. В переводе действительно буклет от маркетолога директора Google. Он встретился мне вчера ночью и я решил перевести его. По-хорошему надо перевести статью в ссылке, там несколько подробнее. День-два и появятся первые отчёты о пробах в блогах, тогда можно переводить уже их.
+2
Тут мнение двоякое. Google хочет популяризовать эту тему, поэтому появление именно такого поста к библиотеке машинного обучения, в общем, не случайно. Интересно наблюдать, как именно они популяризуют технологию, какую используют риторику при этом.
+1
Мне видится проблема, что они пытаются туда включить всё, что относится к ИИ и обучению. Это с одной стороны хорошо, с другой стороны монстр. В данный момент множество библиотек в фонде Аpache которые могут почти то же самое. Но они на Java и из них самому нужно собирать свой велосипед. В большинстве случаев нужно решать конкретные задачи под которые нужен конкретный велосипед и иногда велосипед из старых технологий надёжней.
В любом случае TensorFlow пригодится для препарирования и поиска интересных решений в нём.
Спасибо за новость.
В любом случае TensorFlow пригодится для препарирования и поиска интересных решений в нём.
Спасибо за новость.
0
честности ради строит отметить, что они врут про "мы создали принципиально новую систему машинного обучения", уже давно есть github.com/Theano/Theano, и из проект это его клон, вероятно с какими то улечьшениями, но все же клон
+1
Более того, DeepMind, купленный Google, до сих пор использует Torch www.wired.com/2015/11/google-open-sources-its-artificial-intelligence-engine, но не гугловскую технологию.
+1
(edit: это ответ на комментарий на один уровень выше)
TensorFlow — это скорее не Theano, а Theano + Lasagne, потому что в TensorFlow есть все слои и апдейт-функции.
Самая большая критика в адрес Theano всегда была очень медленная компиляция моделей в C/cuda. В TensorFlow компиляции нет, поэтому для прототипирования сложных моделей он подходит намного лучше.
TensorFlow — это скорее не Theano, а Theano + Lasagne, потому что в TensorFlow есть все слои и апдейт-функции.
Самая большая критика в адрес Theano всегда была очень медленная компиляция моделей в C/cuda. В TensorFlow компиляции нет, поэтому для прототипирования сложных моделей он подходит намного лучше.
0
Это, конечно, не принципиально, но я не мог пройти мимо, увидев этот логотип. Всё дело в том что проекция буквы Т симметричная в то время как сама фигура не может дать такую проекцию. Несуществующие фигуры всегда обращают на себя внимание.
+2
Прикольно. Не заметил пока вы не сказали. Видимо если сделать как должно быть исходная трёхмерная фигура слишком легко читается к простая сумма двух. Вот её и погнули.
+1
Почему не может дать?
Извините, что-то не понял.
Там неправильно только то, что правую верхнюю палочку (которая формирует верхнюю буквы F) надо было бы отодвинуть правее, то есть удлинить плечо буквы Т, от которого она отходит.
А здесь получается, что у тени Т правое плечо должно быть короче, чем левое.
При условии, что угол прямой между правым плечом Т и этой палочкой F.
Извините, что-то не понял.
Там неправильно только то, что правую верхнюю палочку (которая формирует верхнюю буквы F) надо было бы отодвинуть правее, то есть удлинить плечо буквы Т, от которого она отходит.
А здесь получается, что у тени Т правое плечо должно быть короче, чем левое.
При условии, что угол прямой между правым плечом Т и этой палочкой F.
+1
Странно, что ни у кого не сработала ассоциация с книгой Дугласа Хофштадтера
0
10 ноября как ночь релизов в Deep Learning. Вот и nvidia: nvidianews.nvidia.com/news/tiny-nvidia-supercomputer-to-bring-artificial-intelligence-to-new-generation-of-autonomous-robots-and-drones.
0
НЛО прилетело и опубликовало эту надпись здесь
Вообще другой сегмент. У этой штуки энергопотребление 10Вт. Она рассчитана на применение в мобильной технике, ограниченной по энергии.
А стада радеонов это для больших стационарных ферм.
А стада радеонов это для больших стационарных ферм.
0
Да, этот девайс размером с кредитку для конструирования самообучающихся автономных дронов. Другой сегмент, интересно было бы сравнить мощность этой новой штуки в эквивалентном «количестве видеокарт в ферме».
0
Заявлен один терафлопс. Дальше всё просто смотрите производительность систем на радионах в интернете и сообщаете тут в комментах. Заодно мы порадуемся, потому как мне тоже интересно. По меркам стационарных систем это не много, как я понимаю, но в пересчёте на Ватт энергии это весьма и весьма сурово.
0
НЛО прилетело и опубликовало эту надпись здесь
Почему же нет. Вот например вышла в июле статья vk.com/feed?section=comments&w=wall3614110_4254 про нейронную сетку, которая лучше, чем средний человек предсказывает какое следующее слово будет в обычном на английском языке. Это ахренительный прорыв, на самом деле, причём всего за один год. Ещё в прошлом году было в два раза хуже чем у человека.
Причём для этого не потребовалось какого-нибудь запредельного железа. Прогресс не столько в железе, сколько в алгоритмах.
Причём для этого не потребовалось какого-нибудь запредельного железа. Прогресс не столько в железе, сколько в алгоритмах.
+1
НЛО прилетело и опубликовало эту надпись здесь
Вот сильно зависит от алгоритмов. Первые мои три статьи на этом сайте касательно нейронных сетей считались на самсунговском планшете с восьмой виндой в качестве опрационки. В билайновском конкурсе большую часть рассчётов делал на стационарнике, но последние модели из отпуска досчитывал опять на планшете. Я, конечно, из 75% так и не выпрыгнул (сейчас уже знаю почему), но вообще считаю, что если пользуешься не готовыми библиотеками, а пишешь что-то сам, ориентироваться надо на продумывание алгоритмов, а не на взятие задач грубым компьютерным штурмом.
Хотя это только моё имхо. Вот если я при таком подходе в топ5 выйду хотя бы по одной кагловской задаче — тогда это будет серьёзное авторитетное мнение. :)
Хотя это только моё имхо. Вот если я при таком подходе в топ5 выйду хотя бы по одной кагловской задаче — тогда это будет серьёзное авторитетное мнение. :)
0
Ну точно сговорились, вот только вчера: blogs.technet.com/b/inside_microsoft_research/archive/2015/11/12/microsoft-open-sources-distributed-machine-learning-toolkit-efficient-big-data-research.aspx
0
НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре , чтобы оставить комментарий
TensorFlow: машинное обучение от Google, теперь – умнее и для всех