Pull to refresh

Comments 18

UFO just landed and posted this here
Спасибо!
ICM не пробовали, пробовали Vulkan. Наш движок для Vulkan можно с незначительными изменениями запустить на Intel Graphics. На сколько я помню, скорость инференса была сопоставима с одним потоком CPU. Возможно, в будущем мы официально поддержим Intel Graphics.
Молодцы коллеги! Так держать. Очень крутую и полезную работу делаете. В ближайшее время мы обязательно попробуем вашу библиотеку в наших ML-проектах на Битрикс24.
Саша, спасибо! Ждем отзывов, всегда на связи.

Первый DL framework от российской компании? С почином!
Осталось еще свой TPU запилить и "здравствуй, нейроимпортозамещение".

Я понимаю, что задам немного тупой вопрос, но что делают *.bld файлы?) Какая-то система сборки?

Да, это внутрикорпоративная система сборки.

Немного странно их видеть в open-source :)
Вы там комментарий какой-нибудь оставьте штоль :)

Отличная работа! Но будущее, имхо, за 'компиляцией' графа вычислений при релизе(a-ля tvm). Это позволяет за счет кодогенерации проводить оптимизации совершенно другого уровня. В ход идут не только классические трюки компиляторов(dead code elimination, constant-folding, operations fusion и т.д.), но и более экзотические идеи о автоматическом подборе структуры циклов в слоях под конкретное железо.

Поздравляю с релизом!


Из статьи мне показалось, что вам важнее удобно и эффективно запускать модели, обученные при помощи других библиотек, таких как PyTorch и TensorFlow, чем использовать собственный код для обучения. Уверены ли вы в целесообразности разработки и поддержки ещё одной полнофункциональной библиотеки для машинного обучения, если можно сосредоточиться на развёртывании моделей? На мой взгляд, довольно тяжело соревноваться с ресурсами и сообществом вокруг проектов Facebook и Google.

Спасибо!
Не совсем так, у нас работа с TF и PyTorch ведется главным образом на стадии экспериментов, финальное обучение делается на NeoML. К тому же, есть еще дообучение у клиента. Так что, обучение нам нужно!
Мы не соревнуемся, мы решаем свои задачи и делимся результатом)
Поздравляю с выпуском!
Не сравнивались с ArmNN/ArmCL на мобильных CPU/GPU?
Спасибо!
Замеров на сетях мы не делали, мы сравнивали BLAS c ArmCL на Android-CPU, работали одинаково.
BLAS это важно, но в сетях в чистом виде это где? в полносвязном слое разве. А вот сравнить свёртки, которых часто много и которые иногда включают в себя BLAS (через Winograd Fast Convolution например). Было бы интересно про GPU также узнать, это мой bias, так сказать. На Adreno можно с SNPE посравниваться.
Можно попросить какой-нибудь контакт (ваш или другого добровольца), помочь разобраться, самому промерять?
Умножение матриц это основной элемент, например, в MobileNetV2.
Да, конечно, вот мой: stanislav.angelyuk@abbyy.com.
Мы сейчас планируем выделить ресурсы для оптимизации Vulkan, можно будет сделать что-нибудь вместе, с оптимизацией под ваши задачи.
Great job! Приятно узнать об отечественном проекте такого уровня.
Вот такой вопрос: можно ли быстро на коленках сделать что-нибудь подобное на данный момент или нет julialang.org/blog/2019/01/fluxdiffeq?
Интересует моделирование систем ОДУ.
Sign up to leave a comment.