Pull to refresh

Comments 23

Энергопотребление пока неизвестно, но на пресс-конференции, заявили, что рабочая станция «работает от обычной розетки».

System Power Usage 1.5 kW at 100–120 Vac
Можно предположить, что возникнет дополнительный шум, связанный с подключением компрессора.

System Acoustics <37 dB
www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/dgx-station/nvidia-dgx-station-a100-datasheet.pdf

Простите, кажется, я всех запутал. Память там, вероятно, HBM2e, хотя в спеках этого не нашёл. А накопители NVMe, это в спеках есть.
https://www.nvidia.com/ru-ru/data-center/a100/

Зашёл за этим комментом. И да, в вопрос надо добавить «на максималках».

… в 8к разрешении с рейтрейсингом

Не надо, в каноничном меме этого нет.

жалко, что в историю бенчмаркинга пекарного железа крепко вошёл именно неоптимизированный и скучный высер от крайтек

Интересно, когда уже эти чипы/модули перестанут называть видеоускорителями? Фактически, обработка именно видео для них стала далеко не первоочередной задачей.

UFO just landed and posted this here
Цена на pci-e версию на 40Gb с пониженным энергопотреблением и явно скоростью (пусть будут заявленные 125 tensorflow tflops) в розницу 10к баксов.

Уже устаревающий rtx2080 с 11Gb памяти дает 58 tensor tflops и обойдется в $1.2к

Флагманский rtx3090 с 25Gb памяти и чуть лучше характиристиками (по бенчмаркам он ровно в 2 раза лучше 2080) — $2к

Т.е. за главную фичу — учетверение gpu памяти придется пятикратно завышать оплату.
так бывает за нишевый продукт. маркетинг и мелкопартийность.
UFO just landed and posted this here
Если не секрет, что именно хотя бы приблизительно требует такой объем памяти именно в gpu? это ведь актуально если доступ к памяти практически рандомный иначе может хватить потока через cpu.
UFO just landed and posted this here
Задача классная, но вопрос был больше как определили что вам нехватает именно оперативной памяти? постепенно усложняли модель до сходимости а она не сходилась?

зы или вы обучающую выборку целиком туда заливали?
80 ГБ это прям огого! Наконец то у жирных моделек можно будет батчи делать больше чем размера 1
При работе с ГПУ Nvidia заметил, что они улчшают координально архитектуру только через поколение. Так Volta не сильно то отличается от Pascal. Поэтому работаем на P100 и не стремимся получить доступ на V100, хотя такие давно есть в датацентрах. А вот архитектура Ampere это очень большой шаг вперед — пропускная способность и объем памяти существенно увеличены. Мы как то не используем тензорные модули (конечно необходимо глянуть их возможности), но вот очень бы хотелось протестить наработки на A100. Переход на P100 с пердыдущей архитектуры был очень результативным для нас.
Sign up to leave a comment.