Как стать автором
Обновить

Комментарии 20

Чтож, похоже на то, что вот таким товарищам больше не надо делать свои железки. Отсюда меньший стартовый капитал, а здоровая конкуренция еще никому не вредила.
Очень смешно — "… Подобное решение производитель называет удобным для архитектурных бюро, дизайнерских и графических студий среднего масштаба, которым не по карману покупать дорогую графическую станцию за несколько десятков тысяч долларов на стол каждому сотруднику....".

Стоимость решения — от 3000$ за GPU (взято отсюда in.slizone.com/object/io_1256208639258.html), описанная в статье система — 100 GPU и того будет стоить от 300 000$.

У вас нету пару раз по несколько десятков тысяч? Так фигня вопрос — заплатите пару раз по несколько сотен тыщ!
Эм, там же написано, что начальный уровень-восемь GPU. Хотя даже если и так, выигрыш в цене сомнителен, выходит $2400 на рабочее место при условии что все работают одновременно.
НЛО прилетело и опубликовало эту надпись здесь
насколько я понял, это решение для поставщиков услуг. То есть для дизайнерских бюро и прочих потребителей аренда времени будет стоить на порядок меньше, или на порядки.
По поводу ценовой политики — неплохо было бы сделать оплату за количество вычислений (как у Azure). Как все бросятся оптимизировать…
НЛО прилетело и опубликовало эту надпись здесь
Поправьте текст пож-та. Не SAOP, а SOAP!
Поправил
Используется CUDA. А это значит что подойдет любая карточка с поддержкой CUDA, просто время рендера будет в десятки раз больше чем в облаке, если конечно они не сделают искусcтвенное ограничение на использование этого ПО только с Tesla.
Была презентация там даже связка из нескольких Tesla выдавала картинку не совсем в реальном времени (несколько секунд), но все равно прогресс по сравнению с просчетом на центральных процессорах.
На второй картинке изображение, полученное с RealityServer?
а на первой?
А первая картинка получена при помощи графического редактора GIMP 2.6.7 :)
У меня вопрос есть:
Что имеется в виду под одновременным подключениями 10-1000 пользователей?
Ведь все эти 240 ядер работают параллельно над ОДНОЙ задачей а не по ядру на пользователя. Получается что диспечер задач просто держит какое то количество подключений и какое то количество задач в очереди?
НЛО прилетело и опубликовало эту надпись здесь
На сколько я помню с курса по cuda в tesla 4 гигабайта оперативной памяти. Вызов Cuda может быть из функций kernel. Вызывать kernel можно с cpu. Выбор ядра для вычисления нами не контролируется. и мы не можем управлять каждым отдельным вычислительным ядром в приямую. так что КАК БАЛАНСИРОВАТЬ НАГРУЗКУ на вычислительные ядра тяжело.

Вы не путайте обычную многопроцессорную систему с массивно параллельными вычислителями такими как графическая карта. Тут все несколько сложнее чем на серверах со стандартными cpu.

НЛО прилетело и опубликовало эту надпись здесь
Хотелось бы услышать ответ специалистов по cuda или людей из nvidea.

Квантование на массивнопараллельной системе- что новенье. Не забывайте про то что загрузка из памяти оперативной в память видеокарты- очень тяжелая операция. А если вы все храните в памяти видеокарты и между ними переключаетесь, то могу сказать из личного опыта 4 гига- это не много для задач обработки матриц к примеру.
Правда это для операций математических. Для работы с графикой в основном используется шейдерная память, и если испольуют ее, то тут скорее ситуация просто обработал запрос. Выгрузил из памяти, загрузил новый. Тут тогда не какой параллельности, тут будет просто как вебсервер. запрос ответ.запрос ответ. и не какого хранения.
Еще раз повторюсб- хотелось бы услышать, что нибудь по подробнее либо от автора статьи, либо от людей связанных с nvidea и cuda
Следующее поколение (речь о профессиональных решениях типа quadro\tesla) карт ожидается со значительно большими объемами собственной памяти.
Пока да, работает на 4Гб встроенной и это действительно не очень много.
Все это для меня пока выражается одним словом — сомнительно. В самой идее что-то есть, но не в текущий момент.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.