Comments 20
Чтож, похоже на то, что вот таким товарищам больше не надо делать свои железки. Отсюда меньший стартовый капитал, а здоровая конкуренция еще никому не вредила.
+3
Очень смешно — "… Подобное решение производитель называет удобным для архитектурных бюро, дизайнерских и графических студий среднего масштаба, которым не по карману покупать дорогую графическую станцию за несколько десятков тысяч долларов на стол каждому сотруднику....".
Стоимость решения — от 3000$ за GPU (взято отсюда in.slizone.com/object/io_1256208639258.html), описанная в статье система — 100 GPU и того будет стоить от 300 000$.
У вас нету пару раз по несколько десятков тысяч? Так фигня вопрос — заплатите пару раз по несколько сотен тыщ!
Стоимость решения — от 3000$ за GPU (взято отсюда in.slizone.com/object/io_1256208639258.html), описанная в статье система — 100 GPU и того будет стоить от 300 000$.
У вас нету пару раз по несколько десятков тысяч? Так фигня вопрос — заплатите пару раз по несколько сотен тыщ!
-5
Эм, там же написано, что начальный уровень-восемь GPU. Хотя даже если и так, выигрыш в цене сомнителен, выходит $2400 на рабочее место при условии что все работают одновременно.
0
насколько я понял, это решение для поставщиков услуг. То есть для дизайнерских бюро и прочих потребителей аренда времени будет стоить на порядок меньше, или на порядки.
+2
Поправьте текст пож-та. Не SAOP, а SOAP!
0
Используется CUDA. А это значит что подойдет любая карточка с поддержкой CUDA, просто время рендера будет в десятки раз больше чем в облаке, если конечно они не сделают искусcтвенное ограничение на использование этого ПО только с Tesla.
Была презентация там даже связка из нескольких Tesla выдавала картинку не совсем в реальном времени (несколько секунд), но все равно прогресс по сравнению с просчетом на центральных процессорах.
Была презентация там даже связка из нескольких Tesla выдавала картинку не совсем в реальном времени (несколько секунд), но все равно прогресс по сравнению с просчетом на центральных процессорах.
+1
На второй картинке изображение, полученное с RealityServer?
0
У меня вопрос есть:
Что имеется в виду под одновременным подключениями 10-1000 пользователей?
Ведь все эти 240 ядер работают параллельно над ОДНОЙ задачей а не по ядру на пользователя. Получается что диспечер задач просто держит какое то количество подключений и какое то количество задач в очереди?
Что имеется в виду под одновременным подключениями 10-1000 пользователей?
Ведь все эти 240 ядер работают параллельно над ОДНОЙ задачей а не по ядру на пользователя. Получается что диспечер задач просто держит какое то количество подключений и какое то количество задач в очереди?
0
UFO just landed and posted this here
На сколько я помню с курса по cuda в tesla 4 гигабайта оперативной памяти. Вызов Cuda может быть из функций kernel. Вызывать kernel можно с cpu. Выбор ядра для вычисления нами не контролируется. и мы не можем управлять каждым отдельным вычислительным ядром в приямую. так что КАК БАЛАНСИРОВАТЬ НАГРУЗКУ на вычислительные ядра тяжело.
Вы не путайте обычную многопроцессорную систему с массивно параллельными вычислителями такими как графическая карта. Тут все несколько сложнее чем на серверах со стандартными cpu.
Вы не путайте обычную многопроцессорную систему с массивно параллельными вычислителями такими как графическая карта. Тут все несколько сложнее чем на серверах со стандартными cpu.
0
UFO just landed and posted this here
Хотелось бы услышать ответ специалистов по cuda или людей из nvidea.
Квантование на массивнопараллельной системе- что новенье. Не забывайте про то что загрузка из памяти оперативной в память видеокарты- очень тяжелая операция. А если вы все храните в памяти видеокарты и между ними переключаетесь, то могу сказать из личного опыта 4 гига- это не много для задач обработки матриц к примеру.
Правда это для операций математических. Для работы с графикой в основном используется шейдерная память, и если испольуют ее, то тут скорее ситуация просто обработал запрос. Выгрузил из памяти, загрузил новый. Тут тогда не какой параллельности, тут будет просто как вебсервер. запрос ответ.запрос ответ. и не какого хранения.
Еще раз повторюсб- хотелось бы услышать, что нибудь по подробнее либо от автора статьи, либо от людей связанных с nvidea и cuda
Квантование на массивнопараллельной системе- что новенье. Не забывайте про то что загрузка из памяти оперативной в память видеокарты- очень тяжелая операция. А если вы все храните в памяти видеокарты и между ними переключаетесь, то могу сказать из личного опыта 4 гига- это не много для задач обработки матриц к примеру.
Правда это для операций математических. Для работы с графикой в основном используется шейдерная память, и если испольуют ее, то тут скорее ситуация просто обработал запрос. Выгрузил из памяти, загрузил новый. Тут тогда не какой параллельности, тут будет просто как вебсервер. запрос ответ.запрос ответ. и не какого хранения.
Еще раз повторюсб- хотелось бы услышать, что нибудь по подробнее либо от автора статьи, либо от людей связанных с nvidea и cuda
-1
Все это для меня пока выражается одним словом — сомнительно. В самой идее что-то есть, но не в текущий момент.
0
Sign up to leave a comment.
Articles
Change theme settings
NVIDIA RealityServer – облачные вычисления в 3D