Pull to refresh

Comments 16

Амдшки молодцы. Ещё пара годиков и мне кажется мы сможем увидеть реальную конкуренцию процессора и видеокарты синих, процессора и видеокарты красных и процессора и видеокарты зелёных.
Ну, конкуренцию в процах мы уже наблюдаем и пожинаем. Интел пока не отошёл)
Да и с видиками в этом сезоне наглядно уже увидели — нвидия не зря цены на новое поколение не задрала на фоне выхода приставок и анонса новых видиков от амд (всё таки явно имели инфу о планируемом)
А вот процы от нвидии не факт, что скоро будут — им же ещё даже сделку не разрешили, они поздно чухнулись
АМД гпу используется для глубокого обучения? Гайды и статьи посвященные этому пишут мол учится на Nvidia
По-моему большинство фреймворков сейчас заточены под CUDA, но запускать на AMD карточках тоже можно, хотя в плане производительности не знаю как они себя показывают. Если AMD получится ворваться на DL рынок, то будет круто, они хотя бы память для карточек не жмут в отличии от NVIDIA.
Спасибо за объяснение! А то хочется баловаться данной темой, и непонятно, что брать в плане железа. 8 гигабайтные варианты (rtx 3070) от зеленых или же 16 гигабайтные (rx 6800) от красных. Многие авторы тем про DL пишут, что объем памяти прямо влияет на скорость обработки данных.
Тут надо заметить, что память вроде разная — у нвидии она более разогнанная, если я правильно понял.
Объем памяти влияет на то каким может быть максимальный размер модели + размер пакета данных. Особенно актуально, если собираешься заниматься CV / NLP. Не ручаюсь за правильность, но источник вроде неплохой — lambdalabs.com/blog/choosing-a-gpu-for-deep-learning — тут сравнение карточек от NVIDIA, в том числе по памяти. Видно, что в некоторых случаях данные + модель тупо не влезают в 6-11 гб памяти, либо приходится довольствоваться малыми размерами батча (вплоть до 1).
Если AMD получится ворваться на DL рынок, то будет круто, они хотя бы память для карточек не жмут в отличии от NVIDIA.
Кстати, ведь подчеркнули, что представлены же только обычные, игровые видеокарточки. Про же выйдут попозже, может и там что покажут интересного?
Ну вообще говоря обещали, что Super (или Ti, хз) версии выйдут с большим количеством памяти. Вроде как 3080 Super / Ti будет с 16 гб, про остальные не помню. Собственно, поэтому пока что не собираюсь переходить на новое поколение — 3090 (которая как раз из скорее профессиональной линейки) дороговата и под вопросом в плане производительности (читал где-то бенчмарки, где говорят, что NVIDIA чуть ли не специально урезала им производительность, якобы затачивая под другие задачи), а у остальных слишком уж несерьёзный объем памяти.
UFO landed and left these words here
Ну, пересказывать легенды косматых времён fglrx, это как-то даже неприлично. Сейчас закрытый отличается от открытого только присутствием некоторых фич/расширений, основа у них общая.
UFO landed and left these words here
Глянул, очень специфические запросы у вас, потому и не фиксят. Негодяи, да. Выход один — устроиться в ААА-геймдев и пропихнуть свои шейдеры в проект, тогда-то в AMD раскаются и пофиксят.
UFO landed and left these words here
Nvidia когда только начала делать свою куду, сразу начала продвигать её среди учёных. Чуть ли не бесплатно рассылала железки, программы халявного онлайн доступа к мощностям для институтов, семинары, хэппенинги, гранты и т.д. Соответственно, научное сообщество как-то к ней привыкло, подсело, пригрелось и слазить не торопится.
Против аргументов на счёт того, что куда удобнее, более лучше и вообще, есть один контраргумент: не пригретые невидией криптовалютчики пишут свои майнеры для OpenCL и в ус не дуют.
То есть, таки да, CUDA в науке сейчас засела почти так же прочно, как винда на десктопе.
Only those users with full accounts are able to leave comments. Log in, please.