Комментарии 79
Однако ampere кажется оверкиллом для борьбы с big navi, которые, если экстраполировать из разных слухов, должны быть вдвое мощнее предыдущего поколения. Кажется, сброс цен скорее обусловлен желанием nvidia перетянуть на себя побольше потенциальных покупателей нового поколения консолей, весьма мощного на фоне turing/rdna.
Как по мне это больше результат того что 2000-я линейка тотально провалилась по продажам из-за задранных в небеса ценскорее потому, что основная фича turing'а — raytracing, а она не была шибко интересна ни геймерам (из-за просадки производительности), ни разработчикам AAA тайтлов (они помимо ПК хотят выпускаться еще и на консолях, а там трассировки нет).
Нвидия вполне успешно могла бы выкатить карты по более высоким ценам, снять сливки, а после анонса амд снизить их.nvidia прекрасно знали что big navi и консоли выйдут позже. И у них был выбор — «собрать сливки» продавая карточки подороже или снизить цену чтобы пользователи купили их карты не дожидаясь ответа от конкурентов — консолей и big navi.
Ну знаете, кому-то подавай 240fps, а кому-то красивую картинку. Так что все игры с поддержкой RTX у меня есть, я их по этому признаку и ставил
Интересно будет посмотреть DL бенчи на новом поколении. Новый RTX 3090 вообще должен быть монстром в этом плане.
Купил 2070 super две недели назад, странные ощущения. С одной стороны рад за индустрию — почти двойной прирост в мощности между поколениями это круто, но блииин :(
а вернуть можно?
Сам купил 2070S чуть раньше, весной, и могу сказать — не жалею.
Во-первых, я уже полгода ею пользуюсь, а не играю в ждуна.
Во-вторых, сама по себе карточка очень неплохая, и на сегодня я еще пока не нашел игры, которая бы у меня не запустилась "на ультрах". При этом учитывая темпы развития ПО, еще на год-полтора мне ее хватит, чтобы и дальше играть "на ультрах" в новинки, и еще какое-то время, чтобы просто играть.
Ну и потом, анонс еще не значит, что можно прям сейчас бежать и покупать ее — пока она появится в магазинах, пока цены устаканятся, пока разработчики подтянутся, чтобы новые мощности утилизировать.
Так что пользуйтесь и ни о чем не сожалейте, карта хорошая!
Во время выхода 2080Ti было очень популярно мнение, что технология лучей 1) сырая 2) есть в двух с половиной играх 3) разницу можно заметить только в редких условиях — короче говоря, оно того не стоило (брать 2080Ti). Это был явный обкат новой технологии, примерно как первые VR-шлемы. Так что можно соболезновать энтузиастам, которые осознанно шли на такой шаг, а можно и не соболезновать.
Если говорить про игры, то да, без не-NVIDIA бенчей не обойтись, но если там будет допустим даже 80-90% производительности 2080 Ti, то за такую цену — это просто подарок от Хуанга.
Не понял Вашего утверждения. «Полноценных ядер» в смысле CPU там никогда и не было, «CUDA cores» — это количество вычислительных юнитов единичной точности, и судя по табличке в статье FLOPS/core даже выше, чем у предыдущего поколения.
Чтобы больше не быть испорченным телефоном, позвольте я официальное заявление нвидии скопирую:
One of the key design goals for the Ampere 30-series SM was to achieve twice the throughput for FP32 operations compared to the Turing SM. To accomplish this goal, the Ampere SM includes new datapath designs for FP32 and INT32 operations. One datapath in each partition consists of 16 FP32 CUDA Cores capable of executing 16 FP32 operations per clock. Another datapath consists of both 16 FP32 CUDA Cores and 16 INT32 Cores. As a result of this new design, each Ampere SM partition is capable of executing either 32 FP32 operations per clock, or 16 FP32 and 16 INT32 operations per clock. All four SM partitions combined can execute 128 FP32 operations per clock, which is double the FP32 rate of the Turing SM, or 64 FP32 and 64 INT32 operations per clock.
Doubling the processing speed for FP32 improves performance for a number of common graphics and compute operations and algorithms. Modern shader workloads typically have a mixture of FP32 arithmetic instructions such as FFMA, floating point additions (FADD), or floating point multiplications (FMUL), combined with simpler instructions such as integer adds for addressing and fetching data, floating point compare, or min/max for processing results, etc. Performance gains will vary at the shader and application level depending on the mix of instructions. Ray tracing denoising shaders are good examples that might benefit greatly from doubling FP32 throughput.
Doubling math throughput required doubling the data paths supporting it, which is why the Ampere SM also doubled the shared memory and L1 cache performance for the SM. (128 bytes/clock per Ampere SM versus 64 bytes/clock in Turing). Total L1 bandwidth for GeForce RTX 3080 is 219 GB/sec versus 116 GB/sec for GeForce RTX 2080 Super.
Like prior NVIDIA GPUs, Ampere is composed of Graphics Processing Clusters (GPCs), Texture Processing Clusters (TPCs), Streaming Multiprocessors (SMs), Raster Operators (ROPS), and memory controllers.
The GPC is the dominant high-level hardware block with all of the key graphics processing units residing inside the GPC. Each GPC includes a dedicated Raster Engine, and now also includes two ROP partitions (each partition containing eight ROP units), which is a new feature for NVIDIA Ampere Architecture GA10x GPUs. More details on the NVIDIA Ampere architecture can be found in NVIDIA’s Ampere Architecture White Paper, which will be published in the coming days.
Спасибо, такой информации не видел.
Получается, что пожертвовали пропускной способностью для целочисленных операций. Т.е. если раньше «выжимали максимум» из GPU задачи, выполняющие одну операцию с плавающей точкой на каждую целочисленную операцию, то теперь оптимальная производительность будет при двух floating point на одну целочисленную.
Как мне кажется, правильно сделали, чаще всего математики всё же больше, чем арифметики индексов/указателей, и прирост производительности в таком случае будет пропорционален увеличению числа CUDA cores.
Учитывая новый техпроцесс и подросшие спеки она должна быть мощнее. Когда-то gtx 1070 догнал 980ti и ничего.
Я сам посмотрев вчерашнюю презентацию захотел сменить свою 1063 на 3070 хотя и не знаю зачем.
Мои соболезнования тем, кто недавно взял 2080 Ti, а NVIDIA уже в октябре выпускает более мощную 3070, которая ещё и в два с лишним раза дешевле…
Для тех, кому карта не только для игрушек — не вариант. У 3070 мало VRAM. Если бы Nvidia не жадничала и в новых середнячков вставила 12гб — было бы куда интереснее.
А так для тех же нейронок даже 1080Ti за счет объемов VRAM немного приятнее.
Если смотреть на 3080, то у неё, при цене почти в два раза ниже, памяти только на гигабайт меньше, чем у 2080Ti. Довольно неплохой размен, я думаю, даже для нейронных сетей. А на сдачу можно докупить ещё какого-нибудь обвеса. Может быть даже доплатить и взять две 3080 — я, правда, не знаю, можно ли нейросети пускать через SLI и что это даст.
Это не "нужно" — я просто не знаю, насколько это "можно", и что это реально даёт. Судя по изрядно подтухшей информации из памяти, взаимодействие между картами далеко неидеально, но если на карте крутить нейросеть — сильно ли она будет страдать из-за распределённости между картами, или же ограничения в основном влияют на игровые сценарии.
я просто не знаю, насколько это «можно», и что это реально даёт.
SLI сделан исключительно для распараллеливания рендеринга картинки на монитор.
Любой CUDA софт видит каждую видеокарту отдельно и должен сам распределять нагрузку между ними.
Как это работает для тех же нейронок можно почитать в документации tensorflow: www.tensorflow.org/guide/gpu#using_multiple_gpus
выпускают карточку с +50% к производительности — плохо, не продать, цена рухнет, етц
выпускают карточку с +10% к производительности — плохо, Хуанг снова всех обманул, продает тоже самое))
всем не угодишь
А Crysis на максималках эти новые видюхи потянут?
Учитывая, что скоро будет Crysis Remastered — я бы особо не надеялся.
Последние 3 месяца подмывало 2080 Ti взять под CUDA задачки, но явно правильно бил себя по руками.
Ждем падения цен на вторичке :)
NVIDIA представила новую линейку видеокарт на Ampere