Comments 23
Где то плачет Илон Маск Tesla
-3
Энергопотребление пока неизвестно, но на пресс-конференции, заявили, что рабочая станция «работает от обычной розетки».
System Power Usage 1.5 kW at 100–120 Vac
Можно предположить, что возникнет дополнительный шум, связанный с подключением компрессора.
System Acoustics <37 dB
www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/dgx-station/nvidia-dgx-station-a100-datasheet.pdf
+2
А за что NVM2e так перевели?
+1
То есть это не «эйч-би-эм»?
0
Простите, кажется, я всех запутал. Память там, вероятно, HBM2e, хотя в спеках этого не нашёл. А накопители NVMe, это в спеках есть.
https://www.nvidia.com/ru-ru/data-center/a100/
0
теперь все моды на скайрим пойдут
+1
But can it run Crysis?
+8
Интересно, когда уже эти чипы/модули перестанут называть видеоускорителями? Фактически, обработка именно видео для них стала далеко не первоочередной задачей.
+2
Цена на pci-e версию на 40Gb с пониженным энергопотреблением и явно скоростью (пусть будут заявленные 125 tensorflow tflops) в розницу 10к баксов.
Уже устаревающий rtx2080 с 11Gb памяти дает 58 tensor tflops и обойдется в $1.2к
Флагманский rtx3090 с 25Gb памяти и чуть лучше характиристиками (по бенчмаркам он ровно в 2 раза лучше 2080) — $2к
Т.е. за главную фичу — учетверение gpu памяти придется пятикратно завышать оплату.
Уже устаревающий rtx2080 с 11Gb памяти дает 58 tensor tflops и обойдется в $1.2к
Флагманский rtx3090 с 25Gb памяти и чуть лучше характиристиками (по бенчмаркам он ровно в 2 раза лучше 2080) — $2к
Т.е. за главную фичу — учетверение gpu памяти придется пятикратно завышать оплату.
+1
UFO just landed and posted this here
Если не секрет, что именно хотя бы приблизительно требует такой объем памяти именно в gpu? это ведь актуально если доступ к памяти практически рандомный иначе может хватить потока через cpu.
+1
80 ГБ это прям огого! Наконец то у жирных моделек можно будет батчи делать больше чем размера 1
+1
При работе с ГПУ Nvidia заметил, что они улчшают координально архитектуру только через поколение. Так Volta не сильно то отличается от Pascal. Поэтому работаем на P100 и не стремимся получить доступ на V100, хотя такие давно есть в датацентрах. А вот архитектура Ampere это очень большой шаг вперед — пропускная способность и объем памяти существенно увеличены. Мы как то не используем тензорные модули (конечно необходимо глянуть их возможности), но вот очень бы хотелось протестить наработки на A100. Переход на P100 с пердыдущей архитектуры был очень результативным для нас.
0
640 GB ought to be enough for anybody
0
Sign up to leave a comment.
Nvidia выпустила флагманский ускоритель A100 c 80 ГБ памяти