Pull to refresh

Comments 20

Чтож, похоже на то, что вот таким товарищам больше не надо делать свои железки. Отсюда меньший стартовый капитал, а здоровая конкуренция еще никому не вредила.
Очень смешно — "… Подобное решение производитель называет удобным для архитектурных бюро, дизайнерских и графических студий среднего масштаба, которым не по карману покупать дорогую графическую станцию за несколько десятков тысяч долларов на стол каждому сотруднику....".

Стоимость решения — от 3000$ за GPU (взято отсюда in.slizone.com/object/io_1256208639258.html), описанная в статье система — 100 GPU и того будет стоить от 300 000$.

У вас нету пару раз по несколько десятков тысяч? Так фигня вопрос — заплатите пару раз по несколько сотен тыщ!
Эм, там же написано, что начальный уровень-восемь GPU. Хотя даже если и так, выигрыш в цене сомнителен, выходит $2400 на рабочее место при условии что все работают одновременно.
UFO just landed and posted this here
насколько я понял, это решение для поставщиков услуг. То есть для дизайнерских бюро и прочих потребителей аренда времени будет стоить на порядок меньше, или на порядки.
По поводу ценовой политики — неплохо было бы сделать оплату за количество вычислений (как у Azure). Как все бросятся оптимизировать…
UFO just landed and posted this here
Поправьте текст пож-та. Не SAOP, а SOAP!
Используется CUDA. А это значит что подойдет любая карточка с поддержкой CUDA, просто время рендера будет в десятки раз больше чем в облаке, если конечно они не сделают искусcтвенное ограничение на использование этого ПО только с Tesla.
Была презентация там даже связка из нескольких Tesla выдавала картинку не совсем в реальном времени (несколько секунд), но все равно прогресс по сравнению с просчетом на центральных процессорах.
На второй картинке изображение, полученное с RealityServer?
А первая картинка получена при помощи графического редактора GIMP 2.6.7 :)
У меня вопрос есть:
Что имеется в виду под одновременным подключениями 10-1000 пользователей?
Ведь все эти 240 ядер работают параллельно над ОДНОЙ задачей а не по ядру на пользователя. Получается что диспечер задач просто держит какое то количество подключений и какое то количество задач в очереди?
UFO just landed and posted this here
На сколько я помню с курса по cuda в tesla 4 гигабайта оперативной памяти. Вызов Cuda может быть из функций kernel. Вызывать kernel можно с cpu. Выбор ядра для вычисления нами не контролируется. и мы не можем управлять каждым отдельным вычислительным ядром в приямую. так что КАК БАЛАНСИРОВАТЬ НАГРУЗКУ на вычислительные ядра тяжело.

Вы не путайте обычную многопроцессорную систему с массивно параллельными вычислителями такими как графическая карта. Тут все несколько сложнее чем на серверах со стандартными cpu.

UFO just landed and posted this here
Хотелось бы услышать ответ специалистов по cuda или людей из nvidea.

Квантование на массивнопараллельной системе- что новенье. Не забывайте про то что загрузка из памяти оперативной в память видеокарты- очень тяжелая операция. А если вы все храните в памяти видеокарты и между ними переключаетесь, то могу сказать из личного опыта 4 гига- это не много для задач обработки матриц к примеру.
Правда это для операций математических. Для работы с графикой в основном используется шейдерная память, и если испольуют ее, то тут скорее ситуация просто обработал запрос. Выгрузил из памяти, загрузил новый. Тут тогда не какой параллельности, тут будет просто как вебсервер. запрос ответ.запрос ответ. и не какого хранения.
Еще раз повторюсб- хотелось бы услышать, что нибудь по подробнее либо от автора статьи, либо от людей связанных с nvidea и cuda
Следующее поколение (речь о профессиональных решениях типа quadro\tesla) карт ожидается со значительно большими объемами собственной памяти.
Пока да, работает на 4Гб встроенной и это действительно не очень много.
Все это для меня пока выражается одним словом — сомнительно. В самой идее что-то есть, но не в текущий момент.
Sign up to leave a comment.

Articles

Change theme settings