Comments 51
Суровая штука.
0
Сначала обрадовался. А потом рассторился, цена очень высокая($1.5к в месяц), ну и куча ненужных нам фич вроде 1.6Тб сторэджа и 22Гб рама. Но все равно радует, что хоть кто-то начал предоставлять такой хостинг.
+2
Мне кажется основной плюс Amazon-она в почасовой оплате. Вряд ли вам надо будет крутить такой инстанс постоянно, а вот запустить его на день — что бы по быстрому провести как-то расчет — пожалуйста — и стоить будет не так дорого
+3
Если вы занимаетесь этими расчётами более-менее профессионально, может проще свою железку на колокейшен поставить ???
0
если более менее профессионально — то да — Амазон дорого будет
0
Пересчитайте стоимость такой железки и стоимость ее колокейшена во времени, тогда и поговорим ;)
+7
а если нужно, скажем, раз в неделю пересчитать какой-то дикий объем данных, после чего неделю спокойно живем? это ведь реальный сценарий.
0
ну если надо что-то быстро посчитать, то самое оно
0
А где вы вычесленные х знаков после запятой числа пи будете хранить?
0
>2 x NVIDIA Tesla “Fermi” M2050 GPUs
факториалы считать?
факториалы считать?
-5
FERMI? Расходы на охлаждение и электроэнергию там, наверное, сказочные.
+1
Возьмите сравнимый по вычислительно способности перемалыватель чисел на универсальных процесорах вы получите значительно большие затраты. Для сравнимой производительности double на XEON вам будет нужно несколько стоек, а здесь один слот пусть с немного большим энергопотреблением.
Да и AMD думаю с своими процесорами подтянется скоро, у них энєргоэфективность лучше.
Да и AMD думаю с своими процесорами подтянется скоро, у них энєргоэфективность лучше.
+4
Мало того уних уже 12-ти ядерники во всю продаются, когда только анонсировали 8-шку Xeon на следующий год.
Для параллельных задач процессоры — сказка.
Особенно греет душу недавно приехавший 4х процессорник на этих Оптеронах. :)
Для параллельных задач процессоры — сказка.
Особенно греет душу недавно приехавший 4х процессорник на этих Оптеронах. :)
0
12х4=48 ядер %) там вообще Load Aveerage бывает больше 0?
0
С моими задачами бывает к сожалению.
Но железка супер, при том что ощутимо дешевле чем аналогичный сервер на 6-тиядерниках Xeon.
Одна проблема: у нас их только под заказ из Европы везти.
Xeon популярен и только его фактически и везут.
Конечно Xeon вне конкуренции на плохораспаралелливаемых задачах за чем частоты и доп.инструкций.
Но к примеру на Postgre производительность растет пропорционально количество физических ядер (по заявлению разработчиков)…
Да и вообще задачи для Web-а любят много ядер.
Но железка супер, при том что ощутимо дешевле чем аналогичный сервер на 6-тиядерниках Xeon.
Одна проблема: у нас их только под заказ из Европы везти.
Xeon популярен и только его фактически и везут.
Конечно Xeon вне конкуренции на плохораспаралелливаемых задачах за чем частоты и доп.инструкций.
Но к примеру на Postgre производительность растет пропорционально количество физических ядер (по заявлению разработчиков)…
Да и вообще задачи для Web-а любят много ядер.
+1
у нас 2 Xeon'a Six-core и 12 гб памяти, htop показывает 24 ядра и htop 4.7 load_average :)
0
Вы точно имеете в виду Load Average? С чего ему не быть больше 0?
0
В Сибирь их надо. Там холодно и эл/эн с ГЭС дешевая.
0
цена вопроса: $2.10 за час
За процессорный час? Или за весь инстанс?
+1
Интересно, лицензию на Elcomsoft'овские брутфорсеры на GPU можно опцией докупить? :)
+10
UFO just landed and posted this here
Может меня кто-нибудь тыкнуть в статью для тупых в которой рассказывается про эти сказочные приросты производительности от видеокарт? Пока что они мне видятся как 2 дополнительных фиговеньких процессора с суровыми ограничениями.
0
У M2050 448 потока по 575Мгц и пропускная способность шины с внутренней памятью(которой 3Гб) около 140Гб/c.
Для сравнения DDR3 дает не больше 53Гб/с (это в 3х канальном режиме).
Если необходимо проводить однородные операции над большим объемом данных, то это очень хорошее решение.
Я на реальных своих задачках получал на GTX470 прирост производительности ~20 раз по сравнению с такой же обработкой на Core2 Duo 3Ггц. При том что на GeForce искусственно затарможены опирации с даблами в 3 раза вроде.
Для сравнения DDR3 дает не больше 53Гб/с (это в 3х канальном режиме).
Если необходимо проводить однородные операции над большим объемом данных, то это очень хорошее решение.
Я на реальных своих задачках получал на GTX470 прирост производительности ~20 раз по сравнению с такой же обработкой на Core2 Duo 3Ггц. При том что на GeForce искусственно затарможены опирации с даблами в 3 раза вроде.
+2
например, я участвую в dnet.
скорость шестиядерного фенома — 75 попугаев, скорость amd radeon 5750 — 700 попугаев. А видюха-то еще и стоит в 3 раза дешевле
скорость шестиядерного фенома — 75 попугаев, скорость amd radeon 5750 — 700 попугаев. А видюха-то еще и стоит в 3 раза дешевле
0
Если будет возможность добавлять GPU отдельной опцией в другие инстансы — будет отлично.
0
На амазоне вряд ли — у них только «стандартные» конфигурации без опций — опции только в виде доп сервисов (типа CloudWatch, Load balancing и пр.)
0
Для добавления таких GPU отдельной опцией придётся в соответствующие сервера всего лишь воткнуть пару железяк стоимостью по $2500.
0
Представьте себе, что вы находитесь в большом амазоновском дата-центре, и вам нужно срочно воткнуть в каждый десятый пару железяк. А через час выткнуть. И так каждый день.
+1
Для добавления таких GPU отдельной опцией придётся в соответствующие сервера всего лишь воткнуть пару железяк стоимостью по $2500.
0
Brute force never been so easy!
0
А в чем смысл?
Я так понимаю GPU *какие-то конкретные вычисления* могут производить быстрее, чем CPU, так как они специализированы. И на компьютерах конечного пользователя софт (не графический) может использовать возможности GPU для выполнения общих задач (с сложностями и потерей части производительности, так как железо для этого не предназначено). Цель: раз пользователь купил GPU, то не простаивать же ему, пусть используется и для общих вычислений, что в общем-то верно.
А если железо специально выбирать для вычислений, то:
1) если вычисления общего назначения, то выгоднее брать больше процессоров общего назначения.
2) если вычисления долгие и очень специализированные, то выгоднее строить специализированное под эти вычисления железо.
А специально устанавливать GPU на сервер, для того чтобы использовать его для вычислений — странная идея, и имеет смысл только в очень узком кругу задач, когда GPU подходит для задачи лучше, чем CPU (то есть вычисления не общего назначения, а специализированные), но при этом вычисления не настолько велики, чтобы было выгодно создавать железо, оптимизированное для них.
Я так понимаю GPU *какие-то конкретные вычисления* могут производить быстрее, чем CPU, так как они специализированы. И на компьютерах конечного пользователя софт (не графический) может использовать возможности GPU для выполнения общих задач (с сложностями и потерей части производительности, так как железо для этого не предназначено). Цель: раз пользователь купил GPU, то не простаивать же ему, пусть используется и для общих вычислений, что в общем-то верно.
А если железо специально выбирать для вычислений, то:
1) если вычисления общего назначения, то выгоднее брать больше процессоров общего назначения.
2) если вычисления долгие и очень специализированные, то выгоднее строить специализированное под эти вычисления железо.
А специально устанавливать GPU на сервер, для того чтобы использовать его для вычислений — странная идея, и имеет смысл только в очень узком кругу задач, когда GPU подходит для задачи лучше, чем CPU (то есть вычисления не общего назначения, а специализированные), но при этом вычисления не настолько велики, чтобы было выгодно создавать железо, оптимизированное для них.
0
А смысл в том, что суммарная производительность двух вышеописанных карточек NVIDIA Tesla “Fermi” M2050 GPUs при расчётах с плавающей точкой — до 1030 Gflops, а суммарная производительность обоих стоящих в этом же сервере процессоров Intel Xeon X5570 (по неофициальным подсчётам, но других нет) — 11 Gflops.
Т.е., одна такая карточка в распараллеливаемых задачах эквивалентна примерно 90 процессорам.
Может, конечно, я что-то нашёл неправильно, но такая карточка стоит около $2500. А такой процессор — около $1500.
Т.е., одна такая карточка в распараллеливаемых задачах эквивалентна примерно 90 процессорам.
Может, конечно, я что-то нашёл неправильно, но такая карточка стоит около $2500. А такой процессор — около $1500.
+2
Цена выше в полтора раза, а вычислительная мощность в 90 раз. В чем же ловушка?
В таком случае, почему не выпустят процессоры, основанные на той же технологии, что и NVIDIA Tesla “Fermi” M2050 GPU?
Зачем делать их в формате GPU, если всё равно используют их в качестве CPU?
В таком случае, почему не выпустят процессоры, основанные на той же технологии, что и NVIDIA Tesla “Fermi” M2050 GPU?
Зачем делать их в формате GPU, если всё равно используют их в качестве CPU?
0
Вы не застали времена хотя бы процессоров 80486?
Карты Tesla не используют в качестве CPU. Официально их ниша называется вроде бы GPGPU (General Purpose GPU). Но реально… помните, чем 486SX отличался от 486DX? Так и тут. Tesla — это в первом приближении математический сопроцессор.
Карты Tesla не используют в качестве CPU. Официально их ниша называется вроде бы GPGPU (General Purpose GPU). Но реально… помните, чем 486SX отличался от 486DX? Так и тут. Tesla — это в первом приближении математический сопроцессор.
0
Не заметил «при расчётах с плавающей точкой», теперь всё ясно. То есть это не чудо, что они так быстро работают, а следствие их специализации на операциях с плавающей точкой.
Ну назвали бы их тогда NVIDIA Tesla “Fermi” M2050 FPU.
Ну назвали бы их тогда NVIDIA Tesla “Fermi” M2050 FPU.
0
На самом деле, если не, как я сказал, «в первом приближении», то всё ещё сложнее. Для них можно писать код фактически на С++, он может проводить вычисления с любыми типами данных, и т.п… Но запускаться этот код всё равно должен с центрального процессора. В целом, самое правильное было бы назвать их SPU — Stream Processing Unit.
0
UFO just landed and posted this here
Sign up to leave a comment.
Amazon Cluster GPU: Новое слово в мире Cloud-хостинга