Как стать автором
Обновить

Комментарии 79

НЛО прилетело и опубликовало эту надпись здесь
Ну касательно слухов и утечек доходило даже до того, что утечки про новые видюхи от AMD шли от «агентов» из nvidia и наоборот, т.е. «шпионаж» там кажется действительно развит.

Однако ampere кажется оверкиллом для борьбы с big navi, которые, если экстраполировать из разных слухов, должны быть вдвое мощнее предыдущего поколения. Кажется, сброс цен скорее обусловлен желанием nvidia перетянуть на себя побольше потенциальных покупателей нового поколения консолей, весьма мощного на фоне turing/rdna.
НЛО прилетело и опубликовало эту надпись здесь
500 баксов за видяху это весьма не дурно, красные могут легко поглотить сегмент ниже, интересно какой процент рынка в деньгах это? До 500 и выше
НЛО прилетело и опубликовало эту надпись здесь
Судя по статистике железа в стиме, около 5% людей имеют видюху дороже 500 баксов, все остальные счастливые обладатели более дешёвых решений или вообще пользуются дискретками.

Вы имели в виду "интегрированными"? Потому что любые видяхи со своей собственной памятью являются дискретными по определению, и агрегат из поста не исключение.

Да, интегрированными конечно же. Думал об одном, написал про другое.
В сегменте ниже позже выкатятся 3060, какие-нибудь 2650 и 2660 и их ti версии (ну или 1950/1960, если Nvidia все еще хочет разграничивать RTX и не-RTX для бюджетного сегмета) и все у них будет хорошо.
Как по мне это больше результат того что 2000-я линейка тотально провалилась по продажам из-за задранных в небеса цен. Нвидия вполне успешно могла бы выкатить карты по более высоким ценам, снять сливки, а после анонса амд снизить их. Не первый раз такое уже было бы.
Как по мне это больше результат того что 2000-я линейка тотально провалилась по продажам из-за задранных в небеса цен
скорее потому, что основная фича turing'а — raytracing, а она не была шибко интересна ни геймерам (из-за просадки производительности), ни разработчикам AAA тайтлов (они помимо ПК хотят выпускаться еще и на консолях, а там трассировки нет).
Нвидия вполне успешно могла бы выкатить карты по более высоким ценам, снять сливки, а после анонса амд снизить их.
nvidia прекрасно знали что big navi и консоли выйдут позже. И у них был выбор — «собрать сливки» продавая карточки подороже или снизить цену чтобы пользователи купили их карты не дожидаясь ответа от конкурентов — консолей и big navi.

Ну знаете, кому-то подавай 240fps, а кому-то красивую картинку. Так что все игры с поддержкой RTX у меня есть, я их по этому признаку и ставил

ну если верить свежей статистике от steam, nvidia RTX20xx значительно менее популярны чем GTX10xx. Т.е. таких как вас — меньшинство
ага, а самое популярное разрешение, согласно этой статистике 1080р.
Мои соболезнования тем, кто недавно взял 2080 Ti, а NVIDIA уже в октябре выпускает более мощную 3070, которая ещё и в два с лишним раза дешевле… и не продашь их теперь нормально, цена на вторичке должна рухнуть. Интересно, с чем связана такая ценовая политика в отношении нового поколения? А то и скачок производительности огромный, и цены ниже. Явно же не просто так Хуанг расщедрился.

Интересно будет посмотреть DL бенчи на новом поколении. Новый RTX 3090 вообще должен быть монстром в этом плане.
Это аттракцион невиданной щедрости от NVIDIA связан с попыткой сохранить ПК рынок и предотвратить рост числа консольщиков, который должен случится в связи с выходом нового поколения консолей. И ещё мне кажется в самом начале продаж новые карты не будут стоить столько, сколько заявлено. Т.е. обычная накрутка розницы в этот раз будет намного выше, чем в случае, если бы вышли карты по обычной ценовой политике NVIDIA, так как будет сильный дефицит.
Да, ритейлеры в этот раз скромничать с накруткой уж точно не будут.

Купил 2070 super две недели назад, странные ощущения. С одной стороны рад за индустрию — почти двойной прирост в мощности между поколениями это круто, но блииин :(

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
сам полгода назад взял 2070 супер, и чет даже гадко на душе стало после вчерашнего.

Хех, полгода) Я месяц назад взял) Одно утешает что 4960x который у меня стоит все равно с амперами нормально работать не станет, а обновлять всю систему — совсем другие деньги)
Да и 4к монитора у меня нет, 2 штуки FHD)

Отлично вас понимаю, действительно обидно. Я сам хотел обновляться летом, но увидел новости про готовящийся анонс от NVIDIA в сентябре и решил подождать, хотя таких скачков производительности и цен я не ожидал. Была мысль, что если будет серьёзный рост между поколениями, то и цены соответственно улетят, да можно будет урвать старое поколение (те же 2080 Ti) чуть дешевле. А тут вон оно как вышло.

а вернуть можно?

Сам купил 2070S чуть раньше, весной, и могу сказать — не жалею.
Во-первых, я уже полгода ею пользуюсь, а не играю в ждуна.
Во-вторых, сама по себе карточка очень неплохая, и на сегодня я еще пока не нашел игры, которая бы у меня не запустилась "на ультрах". При этом учитывая темпы развития ПО, еще на год-полтора мне ее хватит, чтобы и дальше играть "на ультрах" в новинки, и еще какое-то время, чтобы просто играть.
Ну и потом, анонс еще не значит, что можно прям сейчас бежать и покупать ее — пока она появится в магазинах, пока цены устаканятся, пока разработчики подтянутся, чтобы новые мощности утилизировать.
Так что пользуйтесь и ни о чем не сожалейте, карта хорошая!

Новые карты дадут возможность делать вдвое большее разрешение в VR шлемах — вот это на мой взгляд важно. А то даже 2080ti на максимальных в VR не всё тянула.
Ага, старые будут тянуть, а новые игры будут как всегда тормозить. Каждый год одно и тоже. Сколько бы не было производительности, разработчики всё освоят.
Но зачем? Nvidia три недели назад официально объявила отсчет до презентации, т.е. это были уже даже не слухи, все, кто хоть чуть интересовался знали что новые видеокарты представят 1-го сентября.

Так никто не ожидал ТАКИХ цен от новинок.

Да ну, 2070 FE стоила 529, теперь 499.

2070 на момент выхода стоила 599.
А тут 3070, новое поколение, быстрее чем топовая 2080ti, с новыми технологиями… 499$.

Я вот не понимаю вас и тех кто покупает что-то за 2 недели до презентации новых моделей. Неужели не очевидно что при любых исходах выгоднее подождать? Речь не про пол года или год, а месяц-2 недели.
Это нужно было под камнем жить, что бы не знать про анонс новых ГПУ. У них каунтдаун как минимум 21 день назад был и до этого уже знали, что скоро новое поколение в этом году.
Вряд ли 3070 будет прямо «мощнее» 2080Ti. У неё лучше обработка лучей + DLSS — это да. И на играх с рейтрейсингом она стоит наравне с 2080Ti по их же графику, может на процент лучше. В не-рейтрейсинг играх сравнение производительности мы не знаем (а раз об этом не говорят, то хвастать попросту нечем). Нужно ждать сторонние обзоры на обычных проектах — там и будет видно, насколько новый середнячок обойдёт прошлый премиум. Вангую, что не обойдёт, и догнать 2080Ti сможет только 3070Ti или супер или как они их теперь называют. Контраргументом, конечно, является собственно производительность в условиях рейтресинга — и тут да, новая видеокарта естественно лучше.

Во время выхода 2080Ti было очень популярно мнение, что технология лучей 1) сырая 2) есть в двух с половиной играх 3) разницу можно заметить только в редких условиях — короче говоря, оно того не стоило (брать 2080Ti). Это был явный обкат новой технологии, примерно как первые VR-шлемы. Так что можно соболезновать энтузиастам, которые осознанно шли на такой шаг, а можно и не соболезновать.
Ну по количеству тех же CUDA cores и флопсам, 3070 таки > 2080 Ti. Да, выигрыш вне tensor cores не такой огромный, но он всё же есть, плюс меньшая цена. Основной минус 3070 в сравнении с 2080 Ti для того же DL — 8 гб видеопамяти. Точно сейчас сказать конечно сложно, поэтому интересно будет посмотреть DL бенчи.

Если говорить про игры, то да, без не-NVIDIA бенчей не обойтись, но если там будет допустим даже 80-90% производительности 2080 Ti, то за такую цену — это просто подарок от Хуанга.
С CUDA не все так однозначно. Там по сути многопоточность, а не полноценные отдельные ядра как раньше. Так что физических ядер в той же 3090 — 5248, а не 10496. Средняя производительность я думаю будет как если бы там было ~7000-8000 ядер.

Не понял Вашего утверждения. «Полноценных ядер» в смысле CPU там никогда и не было, «CUDA cores» — это количество вычислительных юнитов единичной точности, и судя по табличке в статье FLOPS/core даже выше, чем у предыдущего поколения.

Вы правы, не совсем корректно написал так как на тот момент еще не было конкретной информации что они поменяли.

Чтобы больше не быть испорченным телефоном, позвольте я официальное заявление нвидии скопирую:
One of the key design goals for the Ampere 30-series SM was to achieve twice the throughput for FP32 operations compared to the Turing SM. To accomplish this goal, the Ampere SM includes new datapath designs for FP32 and INT32 operations. One datapath in each partition consists of 16 FP32 CUDA Cores capable of executing 16 FP32 operations per clock. Another datapath consists of both 16 FP32 CUDA Cores and 16 INT32 Cores. As a result of this new design, each Ampere SM partition is capable of executing either 32 FP32 operations per clock, or 16 FP32 and 16 INT32 operations per clock. All four SM partitions combined can execute 128 FP32 operations per clock, which is double the FP32 rate of the Turing SM, or 64 FP32 and 64 INT32 operations per clock.

Doubling the processing speed for FP32 improves performance for a number of common graphics and compute operations and algorithms. Modern shader workloads typically have a mixture of FP32 arithmetic instructions such as FFMA, floating point additions (FADD), or floating point multiplications (FMUL), combined with simpler instructions such as integer adds for addressing and fetching data, floating point compare, or min/max for processing results, etc. Performance gains will vary at the shader and application level depending on the mix of instructions. Ray tracing denoising shaders are good examples that might benefit greatly from doubling FP32 throughput.

Doubling math throughput required doubling the data paths supporting it, which is why the Ampere SM also doubled the shared memory and L1 cache performance for the SM. (128 bytes/clock per Ampere SM versus 64 bytes/clock in Turing). Total L1 bandwidth for GeForce RTX 3080 is 219 GB/sec versus 116 GB/sec for GeForce RTX 2080 Super.

Like prior NVIDIA GPUs, Ampere is composed of Graphics Processing Clusters (GPCs), Texture Processing Clusters (TPCs), Streaming Multiprocessors (SMs), Raster Operators (ROPS), and memory controllers.

The GPC is the dominant high-level hardware block with all of the key graphics processing units residing inside the GPC. Each GPC includes a dedicated Raster Engine, and now also includes two ROP partitions (each partition containing eight ROP units), which is a new feature for NVIDIA Ampere Architecture GA10x GPUs. More details on the NVIDIA Ampere architecture can be found in NVIDIA’s Ampere Architecture White Paper, which will be published in the coming days.

Спасибо, такой информации не видел.
Получается, что пожертвовали пропускной способностью для целочисленных операций. Т.е. если раньше «выжимали максимум» из GPU задачи, выполняющие одну операцию с плавающей точкой на каждую целочисленную операцию, то теперь оптимальная производительность будет при двух floating point на одну целочисленную.
Как мне кажется, правильно сделали, чаще всего математики всё же больше, чем арифметики индексов/указателей, и прирост производительности в таком случае будет пропорционален увеличению числа CUDA cores.

Учитывая новый техпроцесс и подросшие спеки она должна быть мощнее. Когда-то gtx 1070 догнал 980ti и ничего.

Ну и не следует забывать, что у первых 2080Ti был локальный перегрев кристала (от попыток скрыть этот факт все мои знакомые, кто хоть что-то понимал в микроэлектронике просто ржали как кони — скрыть локальный перегрев за фразой «ну там высота чипа плавает почти на миллиметр» это надо было постараться), с отводом 350вт на старте могут быть грабли. Кто хочет самого топа — будет брать флагман на старте, кто предпочитает проверенное решение/не гоняет куду/не имеет зоопарка 4к или 8к мониторов — возьмёт 20хх с приличной скидкой

Хитроумных много, из-за них цены на старые карты опустятся не так сильно.
Запасов не так много.
Брать новую карту всегда лучше.

Не всегда, бывают исключения.
Тут скорее всего печалит разница в цене т.к. 3070 стоит +-500$, а 2080Ti раза в 2 дороже, но мне кажется те кто покупал 2080Ti от нее получили все, что им было нужно и могут спокойно пропустить 30хх серию карт, если конечно не захотят проапгрейдится на 3090.
Я сам посмотрев вчерашнюю презентацию захотел сменить свою 1063 на 3070 хотя и не знаю зачем.
А плакать или радоваться владельцам 1080 Ti?
Владельцам любых карт pascal — радоваться, наконец то есть смысл апгрейдиться. Об этом даже Хуанг пошутил во время презентации.
Мои соболезнования тем, кто недавно взял 2080 Ti, а NVIDIA уже в октябре выпускает более мощную 3070, которая ещё и в два с лишним раза дешевле…

Для тех, кому карта не только для игрушек — не вариант. У 3070 мало VRAM. Если бы Nvidia не жадничала и в новых середнячков вставила 12гб — было бы куда интереснее.

А так для тех же нейронок даже 1080Ti за счет объемов VRAM немного приятнее.
Не все сразу. Ti и Super версии тоже надо продавать…

Если смотреть на 3080, то у неё, при цене почти в два раза ниже, памяти только на гигабайт меньше, чем у 2080Ti. Довольно неплохой размен, я думаю, даже для нейронных сетей. А на сдачу можно докупить ещё какого-нибудь обвеса. Может быть даже доплатить и взять две 3080 — я, правда, не знаю, можно ли нейросети пускать через SLI и что это даст.

Ну если есть бюджет на 2080 Ti, то, имхо, стоит уж подождать RTX 3090, немного докинуть, да взять его :) 24 гб памяти хватит для большинства современных моделей, даже тех, которые прямо cutting edge.
SLI остался только на 3090. Но вообще не припомню чтобы для CUDA требовалось видеокарты в SLI засовывать.

Это не "нужно" — я просто не знаю, насколько это "можно", и что это реально даёт. Судя по изрядно подтухшей информации из памяти, взаимодействие между картами далеко неидеально, но если на карте крутить нейросеть — сильно ли она будет страдать из-за распределённости между картами, или же ограничения в основном влияют на игровые сценарии.

я просто не знаю, насколько это «можно», и что это реально даёт.

SLI сделан исключительно для распараллеливания рендеринга картинки на монитор.

Любой CUDA софт видит каждую видеокарту отдельно и должен сам распределять нагрузку между ними.

Как это работает для тех же нейронок можно почитать в документации tensorflow: www.tensorflow.org/guide/gpu#using_multiple_gpus

По сути, написано, что каждому GPU будет по собственной не(йр)онке — логично, ведь каналы связи должны пожрать весь выигрыш от большего количества памяти и ядер.

выпускают карточку с +50% к производительности — плохо, не продать, цена рухнет, етц
выпускают карточку с +10% к производительности — плохо, Хуанг снова всех обманул, продает тоже самое))


всем не угодишь

А Crysis на максималках эти новые видюхи потянут?

С просадками :)
Microsoft Flight Simulator можно будет с Medium на High передвинуть. Половину настроек, конечно.

Нет, ну вы палку-то не перегибайте. Сглаживание можно будет включить, с Medium на High там минимум 2 штуки 3090 нужны в паре работающие.

я ждал этот коммент =)
У крайзиса проблемы больше по процессорной части, в 2007-м не задумывались еще о широкой поддержке многоядерных систем.

Учитывая, что скоро будет Crysis Remastered — я бы особо не надеялся.

Жду ноуты на 3ххх, быстрее бы
НЛО прилетело и опубликовало эту надпись здесь
Значит игровые ноуты опять толстеть начнут.
НЛО прилетело и опубликовало эту надпись здесь
По ценам — годно! Осталось дождаться бенчмарков.
Последние 3 месяца подмывало 2080 Ti взять под CUDA задачки, но явно правильно бил себя по руками.
Ждем падения цен на вторичке :)
Ну, не сразу. Владельцам 2080 Ti нужно будет пройти отрицание, гнев, торги…
Год назад взял 2080Ti под задачи машобучения дома — не жалею, чувствую себя хорошо, планирую взять 3080 или 3090 до кучи.
Что я делаю не так?
Здраво смотрите на вещи, очевидно. Завязывайте с этим скорее :)
Я так и не понял какое у них потребление будет? Стоит ли менять 750ваттный корсар на что-то более мощное ради новый амперов?
220/320/350 W для 3070/3080/3090 соответственно. В теории 750 Вт должно хватить, пусть и с небольшим запасом
НЛО прилетело и опубликовало эту надпись здесь
Когда я его брал, то ещё никто не указывал уровень кпд (бронз/силвер/голд/етс)
НЛО прилетело и опубликовало эту надпись здесь
Действительно, нашёл спецификацию 80 PLUS Silver. Покупал 10 лет назад и тогда точно ещё никто не заострял на этом внимание. Модель Corsair CMPSU-750HX.
10 лет — большой возраст для блока питания. Близко к максимальной мощности может тащить уже с трудом как мне кажется.
Хватит, если он 750Вт может честно выдать. У меня на 750W SeaSonic-е жил i7-2600K и две GTX590 (тоесть Quad-SLI), а это те ещё печки(пришлось ради них делать СВО) — всё работало стабильно.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости