Pull to refresh

Comments 51

Сначала обрадовался. А потом рассторился, цена очень высокая($1.5к в месяц), ну и куча ненужных нам фич вроде 1.6Тб сторэджа и 22Гб рама. Но все равно радует, что хоть кто-то начал предоставлять такой хостинг.
Мне кажется основной плюс Amazon-она в почасовой оплате. Вряд ли вам надо будет крутить такой инстанс постоянно, а вот запустить его на день — что бы по быстрому провести как-то расчет — пожалуйста — и стоить будет не так дорого
Если вы занимаетесь этими расчётами более-менее профессионально, может проще свою железку на колокейшен поставить ???
если более менее профессионально — то да — Амазон дорого будет
О боже, как они меня злят. Хотя амазон со своим облаком косячит на порядки больше.
Пересчитайте стоимость такой железки и стоимость ее колокейшена во времени, тогда и поговорим ;)
а если нужно, скажем, раз в неделю пересчитать какой-то дикий объем данных, после чего неделю спокойно живем? это ведь реальный сценарий.
ну если надо что-то быстро посчитать, то самое оно
А где вы вычесленные х знаков после запятой числа пи будете хранить?
UFO just landed and posted this here
FERMI? Расходы на охлаждение и электроэнергию там, наверное, сказочные.
Возьмите сравнимый по вычислительно способности перемалыватель чисел на универсальных процесорах вы получите значительно большие затраты. Для сравнимой производительности double на XEON вам будет нужно несколько стоек, а здесь один слот пусть с немного большим энергопотреблением.
Да и AMD думаю с своими процесорами подтянется скоро, у них энєргоэфективность лучше.
Мало того уних уже 12-ти ядерники во всю продаются, когда только анонсировали 8-шку Xeon на следующий год.
Для параллельных задач процессоры — сказка.
Особенно греет душу недавно приехавший 4х процессорник на этих Оптеронах. :)
12х4=48 ядер %) там вообще Load Aveerage бывает больше 0?
С моими задачами бывает к сожалению.
Но железка супер, при том что ощутимо дешевле чем аналогичный сервер на 6-тиядерниках Xeon.
Одна проблема: у нас их только под заказ из Европы везти.
Xeon популярен и только его фактически и везут.
Конечно Xeon вне конкуренции на плохораспаралелливаемых задачах за чем частоты и доп.инструкций.
Но к примеру на Postgre производительность растет пропорционально количество физических ядер (по заявлению разработчиков)…
Да и вообще задачи для Web-а любят много ядер.
у нас 2 Xeon'a Six-core и 12 гб памяти, htop показывает 24 ядра и htop 4.7 load_average :)
Ну это от того, что там Hyper-threading, который не во всех случаях сравним с полноценным дополнительным ядром
Вы точно имеете в виду Load Average? С чего ему не быть больше 0?
Да, именно LA это я к тому, что при таком количестве ядер — очереди процессов ожидающих своего кванта почти не возникнет, т.к. все будут обрабатываться параллельно.
В Сибирь их надо. Там холодно и эл/эн с ГЭС дешевая.
в идеале — на берег белого моря и запитывать от приливной электростанции

охлаждать можно морской водой
цена вопроса: $2.10 за час


За процессорный час? Или за весь инстанс?
Интересно, лицензию на Elcomsoft'овские брутфорсеры на GPU можно опцией докупить? :)
UFO just landed and posted this here
Может меня кто-нибудь тыкнуть в статью для тупых в которой рассказывается про эти сказочные приросты производительности от видеокарт? Пока что они мне видятся как 2 дополнительных фиговеньких процессора с суровыми ограничениями.
У M2050 448 потока по 575Мгц и пропускная способность шины с внутренней памятью(которой 3Гб) около 140Гб/c.
Для сравнения DDR3 дает не больше 53Гб/с (это в 3х канальном режиме).
Если необходимо проводить однородные операции над большим объемом данных, то это очень хорошее решение.

Я на реальных своих задачках получал на GTX470 прирост производительности ~20 раз по сравнению с такой же обработкой на Core2 Duo 3Ггц. При том что на GeForce искусственно затарможены опирации с даблами в 3 раза вроде.
например, я участвую в dnet.

скорость шестиядерного фенома — 75 попугаев, скорость amd radeon 5750 — 700 попугаев. А видюха-то еще и стоит в 3 раза дешевле
Если будет возможность добавлять GPU отдельной опцией в другие инстансы — будет отлично.
На амазоне вряд ли — у них только «стандартные» конфигурации без опций — опции только в виде доп сервисов (типа CloudWatch, Load balancing и пр.)
Для добавления таких GPU отдельной опцией придётся в соответствующие сервера всего лишь воткнуть пару железяк стоимостью по $2500.
Представьте себе, что вы находитесь в большом амазоновском дата-центре, и вам нужно срочно воткнуть в каждый десятый пару железяк. А через час выткнуть. И так каждый день.
На самом деле время от создания инстанса по его доступности — это то время за которое 100 китайских эникейщиков в амазоновском датацентре успевают собрать требуемую машинку :)
Для добавления таких GPU отдельной опцией придётся в соответствующие сервера всего лишь воткнуть пару железяк стоимостью по $2500.
Как я уже подсчитал ниже — это очень дёшево.
Одна карточка в этом сервере стоит в полтора раза дороже процессора, а считает в 90 раз быстрее.
Я имел ввиду сравнение не с процесором, а с аналогичной карточкой, которую можно купить.
А в чем смысл?

Я так понимаю GPU *какие-то конкретные вычисления* могут производить быстрее, чем CPU, так как они специализированы. И на компьютерах конечного пользователя софт (не графический) может использовать возможности GPU для выполнения общих задач (с сложностями и потерей части производительности, так как железо для этого не предназначено). Цель: раз пользователь купил GPU, то не простаивать же ему, пусть используется и для общих вычислений, что в общем-то верно.

А если железо специально выбирать для вычислений, то:
1) если вычисления общего назначения, то выгоднее брать больше процессоров общего назначения.
2) если вычисления долгие и очень специализированные, то выгоднее строить специализированное под эти вычисления железо.

А специально устанавливать GPU на сервер, для того чтобы использовать его для вычислений — странная идея, и имеет смысл только в очень узком кругу задач, когда GPU подходит для задачи лучше, чем CPU (то есть вычисления не общего назначения, а специализированные), но при этом вычисления не настолько велики, чтобы было выгодно создавать железо, оптимизированное для них.
А смысл в том, что суммарная производительность двух вышеописанных карточек NVIDIA Tesla “Fermi” M2050 GPUs при расчётах с плавающей точкой — до 1030 Gflops, а суммарная производительность обоих стоящих в этом же сервере процессоров Intel Xeon X5570 (по неофициальным подсчётам, но других нет) — 11 Gflops.
Т.е., одна такая карточка в распараллеливаемых задачах эквивалентна примерно 90 процессорам.

Может, конечно, я что-то нашёл неправильно, но такая карточка стоит около $2500. А такой процессор — около $1500.
Цена выше в полтора раза, а вычислительная мощность в 90 раз. В чем же ловушка?

В таком случае, почему не выпустят процессоры, основанные на той же технологии, что и NVIDIA Tesla “Fermi” M2050 GPU?

Зачем делать их в формате GPU, если всё равно используют их в качестве CPU?
Вы не застали времена хотя бы процессоров 80486?
Карты Tesla не используют в качестве CPU. Официально их ниша называется вроде бы GPGPU (General Purpose GPU). Но реально… помните, чем 486SX отличался от 486DX? Так и тут. Tesla — это в первом приближении математический сопроцессор.
Не заметил «при расчётах с плавающей точкой», теперь всё ясно. То есть это не чудо, что они так быстро работают, а следствие их специализации на операциях с плавающей точкой.

Ну назвали бы их тогда NVIDIA Tesla “Fermi” M2050 FPU.
На самом деле, если не, как я сказал, «в первом приближении», то всё ещё сложнее. Для них можно писать код фактически на С++, он может проводить вычисления с любыми типами данных, и т.п… Но запускаться этот код всё равно должен с центрального процессора. В целом, самое правильное было бы назвать их SPU — Stream Processing Unit.
UFO just landed and posted this here
Скорее лучше задать вопрос, сможет ли здмакс использовать их?
Sign up to leave a comment.

Articles