Комментарии 136
«Приятно удивил», это сарказм у вас такой? Цена просто космос, за цену видяхи можно обмазаться консолями нового поколения. А этой видяхе нужен плюсом ещё топовой проц. тут же надо ещё идти в соседний автосервис и сваривать кожух из арматуры, эта видяха просто изогнётся сама и изогнёт мать, что в общем-то без проблем приведёт к выходу из строя. Ну и плюсом надо отрубать центральное отопление, иначе дома будет пекло.

Потребляемая мощность у новых карт не сильно отличается от текущих, около 300 Ватт, что маловато даже погреться.


Цена — не космос, это рупь дешевый ).

1400 баксов за видяху? (А у нас так вообще 1800). Это из-за дешёвого рубля? Все консоли нового поколения можно будет купить и ещё останется на игры. А графика как обычно в 3х играх может и будет как-то требовать данную видяху, остальные же как обычно будут ориентироваться на консоли. У 3090 TDP — 350, я не знаю когда и в каких условиях это измерено. У меня к примеру i9 9900K, у него по бумажке аж 95TDP (и дописка, без учёта AVX), а с AVX что используется повально всеми играми за 200 с лишним взлетает. Да и видимо ради 350Вт решили сделать новый аж 12 пиновый разьём питания, да, я охотно верю.
1400 баксов за видяху?
1500. Это просьюмерская видеокарта, она не нужна тем, кто только в игры играет. Либо энтузиастам VR, со шлемами типа Pimax с огромным разрешением, либо тем, кто на картах еще и работает.
Для ЦА консолей цена видеокарты — 500 баксов.
Да и видимо ради 350Вт решили сделать новый аж 12 пиновый разьём питания
Но ведь AIB видеокарты и с классическими 2x 6+2pin есть. Помладше — так вообще с одним.
Господи, вы хотя бы спеки консолей «нового поколения» читали?

Там производительность на уровне 1080 Ti, а эти карточки в 2 раза быстрее.
Речь же не о TFLOPS, про которые ещё Марк Церни говорил на первой презентации PS5, что нельзя делать выводы о производительности разных микроархитектур по этому показателю? Иных данных же, однако, пока нет.

Не все игры есть на консолях. Собственно, обе две, в которые я играю, там отсутствуют (DCS и Squad).

1) Цена нормальная — Дженсен же не виноват, что многоходовочки от гения политики привели к тому, что $1 = 75 рублей;
2) огромный рывок по производительности — это, конечно, ещё нужно будет проверить после выхода, но явным враньем NVIDIA заниматься вряд ли станет;
3) по TDP ещё не все понятно и действительно есть вопросы, но те же 220 Вт у RTX 3070 не особо отличаются от 215 Вт у RTX 2070 Super, не понятно что будет с флагманами;
4) процессор в довесок к картам нужен был и раньше (причем тут новое поколение?), потому что GPU это всё-таки сопроцессор для обработки задач, подходящих под массовое распараллеливание;
5) каким образом «видяха изогнётся сама и изогнет мать»? Размеры (длина x ширина) у RTX 3070 — 242 mm x 112 mm, у RTX 2070 Super — 267 mm x 116 mm. Для 2070 Super нужен кожух из арматуры? У RTX 3080 — 285 mm x 112 mm vs RTX 2080 Super — 267 mm x 116 mm. Т.е. 3070 вообще компактнее, чем аналог из предыдущей серии, а 3080 немного больше. Ну да, RTX 3090 здоровая махина, но он особо среднему геймеру и ни к чему — это же замена Титанам, которые были больше для профессиональных задач (рендеринг, сетки).
Цена просто космос, за цену видяхи можно обмазаться консолями нового поколения.
Обмазаться — ключевое слово. Терпеть 30 FPS (да даже 60 FPS) в 1080P готовы далеко не все. Кому-то подавай 1440P или даже 2160P в 60 FPS. Собственно, они ЦА нового поколения и являются, остальным с лихвой хватит 1080ti с рук или чего попроще.
Терпеть 30 FPS (да даже 60 FPS) в 1080P готовы далеко не все.
я может отстал от жизни, но 60 fps у ПК бояр считается недостаточным? А сколько сейчас считается нормой — 120+?
я может отстал от жизни, но 60 fps у ПК бояр считается недостаточным?
Лично мне для 4К вполне достаточно. Но во-первых, я почти не играю в игры, а во-вторых даже эти 60 FPS у меня бывают не во всех играх, куда уж там 120.
Но я планирую сейчас купить новую видеокарту и, наверное, VR. Насчет мониторов есть сомнения: сейчас использую в качестве монитора 55' ТВ, уменьшать диагональ не хочу, а телевизоры на 4К и 144ГЦ стоят больно дорого, придется ждать, пока подешевеют.
Текущие распространенные конфигурации мониторов это 1080P 60\120\144\240FPS, 1440P 60\120\144FPS и 2160P 60FPS
В случае с VR, например, 60 fps — прямая дорога к тошноте и укачиванию.
И рабочий минимум разрешения по 1080p на каждый глаз (а лучше больше)
Т.е. фактически нужно выжимать 120+ в 4к для нормальной игры, такие дела…
Ну это не правда. 45 FPS + анти лаг со стороны шлема более чем достаточно чтобы себя комфортно чувствовать.
С антилагом это превращается в 90.
Ну и да, это хуже чем честные 90.
Я лишь про то, что это играбельно и не дает тошноты и укачивания(во всяком случае на тех, на ком я это тестировал).

Позвольте, сударь. Но два раза по 1080p это всё таки 2k, а не 4k. 4k в четыре раза больше пикселей имеет, чем 1080p. Вообще, квадратичный рост числа пикселей от плотности на дюйм — это причина, почему 480 освоили ещё в прошлом веке, 720 практически прыжком перед 1080, который тоже вскоре подтянули (консолям, к слову, до максимально честных 1080 пришлось ждать подвоза прошек), а вот 4к ещё долго лабзать будут, очень долго — если бы не DLSS, который на мой сугубо личный взгляд чит читом, но раз работает — вай нот?


8к на фоне всего — не более чем маркетинг. Не очень далёкий от 5д кинотеатров.

144 Гц уже давно стандарт для игрового монитора, а у многих геймеров уже есть 240 Гц. Поэтому да, 60 fps в 2020 году — недостаточно, особенно для онлайн-шутанов.

А смысл понижать время отклика на десяток мс, если пинг сам по себе в лучшем случае десяток-другой мс?

разница в плавности происходящего на мониторе, как визуально (очень сильно заметно) так и просто точнее получается контроллить положение курсора (тут надо уже поиграть самому месяцок что бы почувствовать разницу)

Ну фиг знает. У меня рядом игровой монитор на 144 Гц и рабочий на 60 Гц. Разницы в скроллинге текста, например, я не вижу.


После замены 60 Гц-монитора на 144 Гц у игровой машины я тоже не сказать чтобы стал больше фрагов в шутанах набивать.

ну тогда вам повезло, нет смысла тратиться, для меня разница между 60 и 144 ощущается практически так же как и между 30 и 60, судя по всему это очень индивидуально (ну или у вас монитор работает на самом деле в режиме 60 фпс, я брал недорогой самсунг на VA матрице и первое время было куча приколов в плане того, что он переключался в 60, или вроде стоит 144, а по факту 60 и тп, уже не помню даже в чем там проблема была)
В плане фрагов ничего удивительного, это скорее для спортсменов, где любые единицы процентов эффективности имеют смысл.

Ну позвольте, 144 Гц нужны мамкиным снайперам. Если вы не ходили с AWP на длину и не стрейфили перед дверьми — даже не понимаю, о чём речь.


Но если да. То к хорошему да, быстро привыкаешь. К идеальному — чуточку сложнее. Когда стремишься к идеалам приходится буквально присматриваться абсолютно ко всему.


Что вообще странно. Я увидел больше преимуществ именно в скроллинге у 144Гц моников. Ну. Потому что это просто приятнее выглядит, хотя если комп не тянет эти 144Гц на моник — ну действительно. А какой смысл?)

За отечественными боярами не слежу, а зарубежные все чаще предпочитают 1440p @ 144 Hz. У кого средств побольше, те стремятся к 4k @ 60 Hz. А фанатам VR даже топовых GPU недостаточно.
Статистика по стиму говорит, что у большинства геймеров видеокарта мидл лоу или мидл и разрешение монитора 1080р. ПК бояре такие бояре, но в интернете каждый играет в 8к с 666фпс
Там слишком много китайских компьютерных клубов, она не репрезентативна.
Во-первых, китайских игроков 20% от общего числа геймеров, и если они все играют в клубах, то процент китайских клубных компов будет снижаться.
Во-вторых, клубные компы обычно мощнее среднестатистического пользовательского железа в Китае.
В-третьих, статистика продаж говорит о том, что люди предпочитают покупать мидл лоу и мидл видеокарты.

Проблема клубов в том, что каждый логин от очередного игрока на одном компе считается за новую точку в этой статистике. Поэтому один китайский клуб на 20 компьютеров считается как 1000 пользователей.

Я тоже когда-то был монитор-теоретиком и, будучи на 60-75 Гц IPS мониторе 1080p 24', ухмылялся гонкой за кадрами и разрешением. А после наблюдения в живую и последующего апгрейда до 1440p 32' 165 Гц (да даже до 90-120 Гц эффективных в играх, с учетом не самой сильной видеокарты) — разница в комфорте разительная. Без преувеличения, это сравнить можно с записью видео на телефоне 30 и 60 кадров/с с последующим просмотром. И, посидев на такой плавности (не только игры, но и весь сёрфинг в интернете, да любой GUI в винде) на карантине дома, 60 Гц 1080p монитор на работе кажется чем-то допотопным и неудобным.

Поэтому, если тебе говорят, что нет смысла в 60+ Гц — можно смело детектить диванных экспертов консольщиков и/или людей со слабым ПК, которые никогда не щупали вживую такие частоты (и, мб, разрешения).
У меня монитор 24" 1080p 120 Гц был лет десять, он периодически переключался на 60 Гц, и я это не сразу замечал. Сейчас купил 34" с ActiveSync, и не понимаю, работает этот ActiveSync или нет.
g\free-sync мб? проверить не сложно, взять несколько игрушек и посмотреть есть ли разрывы кадров. если вк от нвидия, то у них есть небольшая софтина которая продемострирует разницу между разным фпс и режимами синхронизации наглядно, называется «G-SYNC PENDULUM DEMO»
Да, Фрисинк. Разрывов нет, т.к. всегда играю с VSync On. Видеокарта nVidia, Pendulum пробовал, как это соотносится с реальными играми — не понял.
ну суть г-синка как раз в том что он устраняет разрывы, при этом ему не нужно конкретное значение фпс для работы и он не добавляет так много инпут лага, как при случае с vsync.
Насчет пендулама это что бы пощелкать и посмотреть в действии наглядно разницу между 60\120 фпс и так же проверить работает ли g\freesync, в играх не так наглядно, т.к. нужно выйти в настройки сменить фпс и тд. У меня тоже монитор (раньше, до того как я что-то перенастроил) переключался из 144 в 60, но я это сразу замечал, имхо разница огромная.

Вроде же обещали около $500 за 3060. Вполне нормальная цена, а за цену при переводе в деревянные (+НДС) благодарите Пыню, Сечина и АКИТ.

Ну, справедливости ради, 3090 стоит 1500$. После прямой конвертации в рубли по курсу получается примерно 110.000 рублей (причем по курсу биржи, типичная покупка в банке была бы дороже), плюс 20% сверху — выходит 130.000, это почти заветные 137.000 с русского сайта Nvidia.
Если кто-то выкатит в магазине за 140.000+ — это уже жадность продавца, «Пыня, Сечин и АКИТ» тут не при делах. Но курс это не оправдывает, конечно.
А если посмотреть на цены в Австралии или Японии, то вообще может показаться, что нам еще повезло, в Японии эту самую 3090 отдают «всего лишь» за 2390$. Официалы.
Австралию с картами Founder Edition вообще обделили, этих карт там не будет. Что касается AIB карт (других производителей на чипах nVidia), то они несомненно будут дороже на всех рынках. В том числе и по причине ожидаемо высокого спроса на карты FE и отстутсвия предзаказов, запрещенных самой nVidia.
Я видел рассуждения пользователей из разных стран и подсчеты локальных цен на карты. Почти везде ожидаемая финальная стоимость примерно равна объявленной на презентации плюс VAT местного разлива. Как будет в реальности из-за высокого спроса и нехватки карт, увидим после старта продаж. Скорее всего значительно дороже под другими брендами и FE на вторичном рынке.
АКИТ тут при том, что продавцов кроме них не осталось. И цены будут банальным картельным сговором, тупо одинаково завышенные.
Может просто стоит перейти на лежачий кейс? Я вот уже давно о таком подумываю. Но никак не могу найти подходящую модель.
Есть корпуса, в которых видухи крепятся вертикально через райзеры.
В сосноли в 30 фпс сам будешь играть. 800 баксов за 3080 и 500 за 3070 это очень вкусные цены.
Цена нормальная — Дженсен же не виноват, что многоходовочки от гения политики привели к тому, что $1 = 75 рублей


Цена совсем не нормальная. Причем тут многоходовочки? Ни разу в новейшей истории видеокарты не стоили 2000$.

P. S. Ошибся веткой, отвечал mithdradates
Они и не стоят 2000$
Они стоят 500, 700 и 1500$. Причем последняя — Titan, подешевела по сравнению с прошлым поколением и стоит примерно столько же, сколько Titan-ы стоили раньше.
А барыги продадут и за 4000$, вы только купите.
Там ни одна карта не стоит $2000, Вы о чем вообще? RTX 3070 будет стоить $499, а производительность обещают уровня 2080 Ti, которая, на минуточку, стоила $1199. Рекомендованные цены для RTX 3080 и 3090 — $699 и $1499 соответственно, опять таки ниже предыдущего поколения, ибо аналогом 3090 являются Титаны, которые стоили от $2.5 к и выше.

То, что рекомендованные цены для России выше, так пора привыкнуть уже, там же учитываются пошлины. Когда появятся в ритейле, то ещё надо будет накинуть сверху десяток-другой процентов в зависимости от жадности продавцов, которые могут ещё и дефицит создать на первых порах, лишь бы заработать на первой волне хайпа (жадность российских ритейлеров это вообще такая отдельная тема). Это никак не отменяет того, что новое поколение по цена / производительность вышло очень крутым и действительно приятно удивило, в отличии от Тьюрингов, которые теперь выглядят как эдакий бета тест для Амперов.

Рефлекс — лажа — 3d engine on gpu. Убавит миллисекунды из сотни в сетевой игре

Убавит миллисекунды из сотни в сетевой игре

«Отрисовочная» и сетевая — это сильно разные задержки. Первая про то, чтобы мышкой навести прицел на врага и начать стрелять, а вторая про то, как быстро после фактической смерти начнет проигрываться анимация смерти (если по мнению клиента попадания были, то «фонтаны крови» и прочие ошметки будут отображаться локально, т.е. не ожидая «разрешения» от сервера, поэтому можно мгновенно скорректировать прицел если пули идут не туда). Современный киберспорт отдает предпочтение убийце, так что точно стрелять (точность прицеливания зависит от задержки мышь->монитор) все же важнее, чем красиво уклоняться (а тут роляет только пинг).
А, ну и у правильного киберспорта сервера по всему миру есть (в популярном шутере от одного автоконцерна я не видел пинга больше 30мс, хотя живу в глубокой-глубокой России), так что либо игра не очень популярная, либо вайфай медленный (я тут подразумеваю и иные проблемы с интернетом со стороны игрока).
Пинг 30 — это 61мс от нажатия кнопки одним игроком до первого возможного действия клиентом другого игрока (если клиент первого игрока за 0мс отрабатывает, и если сервер отрабатывает за 0мс).
Детект фрага на стороне клиента это читфест как в пабг.
Про большой пинг — посмотри что с фортом творится.
Детект фрага на стороне клиента это читфест как в пабг.

Я имел ввиду то, как происходит компенсация пинга для точного аима в динамичных сетевых играх.
Здесь это хорошо объяснено: habr.com/ru/post/303006

60мс это почти пол прыжка. Если еспорт гейм будет убивать тех кто за угол зайдёт, в такую никто играть не будет.
И что опять же рефлекс убавит то? И сколько?

Если еспорт гейм будет убивать тех кто за угол зайдёт

Удивительно, но прямо сейчас оно именно так и работает.
Ты заходишь за угол — и умираешь. Оказывается, что ты уже был мертв когда заходил за угол, но тебе об этом сервер не успел сообщить. Та же самая ситуация, когда в дуэли ты убиваешь врага и сразу умираешь, а он жив(на самом деле тебя убили на пол-пинга (предположим, что это такая мера времени) раньше и ты не мог никого больше убить).
Чтобы в этом убедиться, можешь искусственно увеличить пинг в киберспортивных играх на несколько сотен мс, ну или играть настолько «на грани пинга» (т.е. убивать на пол-пинга позже, чем убили тебя по мнению того клиента) и прочувствовать всю эту боль «но я же уже за стеной был!».

что опять же рефлекс убавит

Рефлекс убавит только локальный пинг «движение мыши -> изменение направления взора на мониторе» (эти данные не зависят от сетевого пинга, т.к. местоположение врагов (почти) всегда известно клиенту, особенно если он может быть в поле прямой видимости). Этот самый рефлекс должен быть полезен даже в динамичных синглплеерных играх. На сколько убавит — другой вопрос, который мы узнаем не раньше выхода первых мониторов с этой технологией.
Рефлекс убавит только локальный пинг «движение мыши -> изменение направления взора на мониторе»


Ну тоесть надо будет серьезно перелопатить движок игры (чтобы в использовать менеджер сцены гпу; выпихивать анимацию в гпу), гонять больше данных (чтоб гпу мог ротейт прорисовать), перехватывать мышу моником, репортить мышу прямо в гпу по обратному каналу (ни или рендерить в большее поле и моник будет сам оффсеты выставлять)
При этом получить большую загрузку по PCIe и памяти, отхватить больший jitter по сетке и получить меньшую компенсацию пинга, возможно с артифактами перемещения персонажей (анимацию в гпу надо будет обновлять — особо при игре с не NPC).
И в лучшем случае получить визуальную реакцию на фрейм раньше (или даже на пол фрейма если уж 360 моники пушат так), тогда как еспорт аймеры практически не использую визуальный фидбек (см видосы где еспортеров сажают на сетапы моник/gpu 60/60 60/240 240/240), и время физиологической реакции вообщето зашкаливает за 100мс (мозг — кисть), в компетитив все сидят на одинаковых сетапах (отбавит у всех и оставить всех опять же в равных условиях) а в трансляцие даже лишние 200мс никто не заметит, не то что 4мс убавления :)

Очевидный бонус для нвиди — но никакой для игроков. И все это за лицензирования рефлекса производителями моников, вендорлока геймописателей, и кучи денег разведенными пользователями

BF4 — пингов меньше 20 мс я не видел почти никогда, сотня — норма.
Squad — сотня — норма.

Ладно. Возможно я был не прав, и у подавляющего большинства игр пинг от 50-300мс.
Однако, в свою защиту скажу, что я упоминал лишь киберспортивные дисциплины. И у них (сам я играл только в cs:go и overwatch) я действительно видел лишь низкий пинг.
в популярном шутере от одного автоконцерна

Простите, а что тут имелось ввиду?
И вообще, что это за пикабушатина? Красный банк, зелёный оператор…
Тысяча баксов за 3080? Не исключено, поэтому мы рекомендуем вам переждать релизный шторм, и купить видеокарту чуть позже – по более приятной цене.
Так можно рубля по 150 дождаться, особенно на фоне последних новостей. Я наоборот надеюсь, что успею на релизе взять, ибо не исключено, что вообще в последний раз видеокарту обновляю.
Не думаю, что IT-шникам стоит особо переживать в длительной перспективе.
Я доллар по 3 рубля помню:) И могу сказать, что ничего принципиально не поменялось, зарплаты всегда после просадок догоняют курс, и в долгосрочной перспективе в долларах растут примерно на инфляцию доллара.
Это конечно не хорошо, во время скачков курса теряешь в деньгах, но так чтобы «в последний раз видеокарту обновляю» — это перебор.
Не думаю, что IT-шникам стоит особо переживать в длительной перспективе.
Айтишники вообще неуязвимые в этом плане. Не всем так повезло.
Это конечно не хорошо, во время скачков курса теряешь в деньгах, но так чтобы «в последний раз видеокарту обновляю» — это перебор.
Надеюсь, надеюсь!
Так можно рубля по 150 дождаться, особенно на фоне последних новостей. Я наоборот надеюсь, что успею на релизе взять, ибо не исключено, что вообще в последний раз видеокарту обновляю.

А что мешает отлодить сумму на покупку новой видео карты в долларах и подождать падения цен не переживая за курс?

бенчмарки Quake 2 снова в теме. может nVidia есть смысл возродить марку 3Dfx?

В рамках анонса примером работы Omniverse послужила Mount & Blade 2: Bannerlord, на базе ассетов которого всего за несколько дней был создан кинематографичный ролик с полностью анимированным персонажем.


Ссылочку можно?
Еще год назад казалось, что новое поколение консолей будет топом, а тут RTX 3080 за $700. — это сильнейший удар по консолям.
Интересно, почему везде указано что ФПС не известен, но в ролике он мелькает:
image
В верхнем левом углу, явно виден 61 кадр/сек.
Используя проценты пересчитать ФПС для второй карты — религия не позволяет?
произведенные по 8-нм техпроцессу Samsung – не слишком энергоэффективные и уступающие изделиям TSMC
Ходят упорных слухи, что 8нм техпроцесс самсунг позволяет разместить 44 млн транзисторов на мм^2 по сравнению с 41 млн транзисторов 7нм техпроцесса TSMC.

Техпроцессы выпускаются в вариантах с повышенной плотностью но сниженной производительностью и наоборот, думаю этим и объясняется разница в 44 и 41 млнТр на мм^2

Каждый раз когда мне говорят фразу «очень дорого». Я почти всегда отвечаю что просто нужно больше зарабатывать. Жаль не всегда у человека есть желание и возможность это сделать. Цены вполне адекватные, что в конечном итоге получит потенциальный покупатель на прилавке магазинов, уже далеко не от Nvidia зависит, именно поэтому за океаном налоги обычно платятся отдельно от основной цены.
Презентация вызвала фурор, но как по мне, пока нету вменяемых тестов в разных играх от блогеров с видеокартами на руках, говорить о том, что владельцам 2080ТИ нужно срочно их сливать за треть цены рановато. И такое чувство, что при выходе каждой новой линейки, старая превращается в тыкву и на ней невозможно играть. Странный подход, как будто вы при каждом выходе рестайла авто, бегите продавать свой автомобиль и брать новый.

К несчастью в силу разных причин не у каждого есть возможность больше зарабатывать.

Тогда у них неправильные жизненные приоритеты, если они в таких обстоятельствах думают о видеокарте за $1500

Это так. Я изначально посчитал тон, в котором написан комментарий, несколько надменным, и поэтому решил указать на это обстоятельство.

Каждый раз, когда мне говорят, что мне нужно больше зарабатывать, я напоминаю в какой стране я живу и указываю этому человеку, где дверь.

А живу я в России, где человек, получающий 17 тысяч рублей — средний класс.
Так я изначально об этом и написал во втором предложении. Оскорбить намерения не было никого. Мой посыл был в том, что преимущественно американским компаниям (Nvidia, Apple и другим) обычно предъявляют претензии по поводу «космических» цен выходя из русской (или других стран СНГ) действительности, мол продай почку, купи последний айфон.
Вот только мы живем в эпоху глобализации, цены в среднем везде одинаковые, купить, привезти особых проблем нету что угодно с любой точки мира. А то что вы себе это не можете позволить, претензии нужно ставить властям поближе, а не компаниям за океаном.

360герц? Да кто видит с такой частотой?
Я разницу между 90 и 144 в играх замечаю только по счетчику кадров на экране!

Было исследование на тему FPS, и пришли к выводу, что FPS не бывает много. Скажем в авиасимуляторе боковой вид стробит всегда, так как смещение за кадр часто превышает размер контрастного элемента. Особенности сопровождения объекта зрачком.

подробности к примеру тут

Еще и периферийное зрение у человека гораздо "быстрее", чем центральное — помню, мог разглядеть мерцание 100 Гц на ЭЛТ-мониторе боковым зрением.

Наконец то поменяю свой Titan X Pascal на это чудо 3090. Долго пришлось ждать. 2080 и другие не могли считаться аналогом ибо памяти было меньше чем на титанах.

Нейросети по работе. Ну и VR на досуге )
Но сейчас в нашей сфере тенденця всё в облаках делать и с ноута работать. Ну а я по юности был любителем железа, поэтому просто нравится владеть таким дома )

у меня Oculus Rift cv1. Титан на максималках vr игры вытягивает, если конечно не перебарщивать со всякими supersampling
У меня Index и карточка 1080Ti, я пока не встретил VR игру, которая бы требовала карту мощнее. Может быть где-то не там смотрел… Чем конкретно из VR проектов вы нагружаете свой Титан?

Т.е. Нвидиа официально признала, что RTX в предыдущей серии получилось так себе, и только в 30хх оно будет полноценно и комфортно работать? Ну ОК.
"счастливые владельцы 2080 SUPER или 2080Ti в спешке сбывают свои карты на Ebay по 400 долларов"
С одной стороны цены на 30хх радуют тех, кто сидит на 10хх или старше и желает обновиться.
С другой стороны те, кто недавно приобрел 20хх, ожидаемо злы и расстроены.
З.ы. на новый год, 9 месяцев назад, я подарил себе 2060 за 380$ :( Я тоже расстроен.


Еще непонятно, почему говорят только об игровой производительности. А где сравнение производительности в 3д-графике? В работе с видео? В работе с нейросетями?

Не расстраивайтесь, вашей 2060 еще на несколько лет хватит.
Я до сих пор на мобильной 1060 играю на FHD. Хотя на волне 3 серии, может и разживусь бушной 2080.
Если вы играете на мобильной 1060, чем вам поможет б/у-шная 2080 (которая мобильной быть ну никак не может)?
Во-первых, может. Есть же всякие боксы с тандерболтом.
А во-вторых, я имел ввиду, что соберу себе станционарник. Низкий рубль, близость нового поколения консолей и не очень большая необходимость делали покупку довольно бессмысленной. А когда будут скидывать за копейки 2080, можно будет и немного потратиться.
Ну, eGPU-боксы это настолько нишевая и не совсем понятно зачем вообще нужная хрень, что их я даже не рассматривал. Но в принципе да, можно.
А насчёт скидывать за копейки — сомневаюсь, что это будут делать массово. Либо совсем энтузиасты, которым надо топ-топ; либо импульсивно «бля, в начале сентября купил». Так что ИМХО лучше либо придушить свою жабу и взять 3070, либо вообще дождаться 3060 за (сколько там будет?) $350, которая должна быть как на уровне 2080 (без Ti).
Я месяц назад стал счастливым обладателем 2060 super (для нейросеток). Конечно, немного грустно что подождав месяц-два можно было бы карту помощнее купить. Теперь год-полтора обновляться наверное не буду. Посмотрим, какие цены будут в нас в рознице, не факт что 30хх будут по адекватным ценам. Пока магазины не продадут запасы 20-ой серии наверное 30хх будут продаваться по завышенным ценам.
У меня 2070 и я вообще не зол и не расстроен. Будет возможность — поменяю на 3070, не будет — подожду 4070. Видеокарты приходят и уходят, чего из-за них переживать?
А чего расстраиваться? если бы тебе 9 месяцев назад сказали «подожди еще 9 месяцев и купи» вы бы стали ждать без карты? тем более 2060 можно слить в целом не сильно дешевле чем продается.

Вот вы 9 месяцев были с видеокартой, а я, как в комментах под другой статьёй написали, жил под камнем всё это время — и купил 2070S утром в день анонса. Такие дела.

Ну это вы прям серьезно ошиблись…
Чегож ситуацию не мониторили? Об анонсе новых видух достаточно давно новости ходили. Как минимум его имело смысл подождать, потому что анонс всегда хоть немного, да сбрасывает цены на предыдущие карты.

Да вот просто так не мониторил — даже не подумал о какой-то грядущей смене поколений, да и так глаза разбегались между разными производителями и моделями даже в том что уже было. А сейчас, насколько вижу, появится ещё больше различий, что где-то будет DDR 6x, а где-то не будет.
Плюс, сейчас я вот помониторил ещё чуток, и вывод такой, что скоро будут два крупных анонса от AMD — сначала новые процессоры, потом линейка видеокарт. С такой логикой как бы не пришлось весь фарш в системном блоке заменять. Ну и наконец — карту я уже купил, для моих похождений за компьютером её пока что хватает с запасом, продать я её всё равно вряд ли смогу, учитывая обстановку — куда проще забить на волнения и получать удовольствие от покупки.

НА самом деле 2070Super достаточно долго еще актуальной будет. Действительно не повод парится. Я просто ВРом мерю, а в нем мало производительности не бывает.
А по факту, если нужен FullHD или даже 4К — 20ХХ спокойно будут еще работать и работать.
По поводу процессоров — если говорить об играх, текущего поколения AMD выше крыши. Купил 3080Х и он везде отлично справляется. Процессоры сейчас вообще для игр сильно избыточны по производительности.
А вот насчет анонса видеокарт АМД — это вы правы.
ИМХО врядли ониё выкатят серьезного конкурента по производительности(не думаю что они расчитывали, что NVidia в два раза увеличит производительность между поколениями). Но есть шанс что АМД даст гораздо более бюджетное решение, просто чтобы хоть как-то конкурировать.
Да. Надо ждать анонса АМД.
врядли [AMD] выкатят серьезного конкурента по производительности — не думаю что они расчитывали, что NVidia в два раза увеличит производительность между поколениями

Или по-другому — Nvidia получили информацию, что по производительности ожидается паритет с RTX 3xxx, и решили заранее захватить долю побольше за счёт радикального снижения цены.

Как владелец 2 штук, стационарной и мобильной, 2080 super замечу что покупать такое на последние деньги глупо, а если есть свободные деньги на топовую видеокарту то и грустить нет смысла)
Самой весомой из них стала серьезная путаница в модельном ряде, из-за чего бесконечные Ti, SUPER и модели с разной конфигурацией памяти то и дело портили настроение людям, пришедшим в магазин за видеокартой. Уложить в памяти то, какая карта быстрее и почему, было сложно – и поэтому nVidia протянула руку помощи, создав максимально простую, интуитивно понятную линейку RTX 3000.


Да уж… Я вот что-то понять не могу как 3090 позиционируется самой компанией? Во времена 1080 Ti было всё понятно. Ti — это флагман, карточки без Ti — более бюджетный сегмент, и есть Titan, который чисто для профессионалов, который особо и ни в каких бенчмарках игр не встречался. А теперь что? Очень не хочется сейчас сэкономить и купить 3080, а потом окажется, что 3090 — такая же игровая видеокарта, как и 2080Ti или 1080Ti в своё время. Тем более что и цена примерно соответствующая.
Ну, последний TITAN RTX уже не была уже спец-видеокартой-для-работы. Просто в нее напихали МНОГО памяти и накинули 1000 баксов к цене. Да, в играх столько памяти негде использовать. Пока.
Кстати, в игровых тестах она обгоняла RTX2080.
Как супер мощная карточка, которая не нужна обычным геймерам.
Наконец-то поколение карт, в которых четко понятно для чего какая карта.
Так когда в играх, кроме блестяшек и отражалок будут настоящие материалы, как в рендеринге в 3D-редакторах? И наоборот — когда будет мгновенный рендеринг?
Блестяшки и отражалки — это и есть «настоящие материалы».
Что такое «мгновенный рендеринг»? 5мс на кадр — для вас еще не мгновенно?
Настоящие материалы это когда смотришь на отрендеренный цемент, воск, кожу, ткань, ржавый металл и веришь, что они настоящие. Возможно в играх они уже и могут применяться, но что-то я пока примеров не видел. Возможно, потому, что рейтрейсить их намного сложнее, чем блестяшки с переотражалками, а результат не так бросается в глаза.
Что такое «мгновенный рендеринг»? 5мс на кадр — для вас еще не мгновенно?
Какой рендер мгновенно отрейтрейсит мою сцену с кучей сложных материалов за такое время? У рендеров с аппаратным ускорением на основе CUDA (Thea, Indigo) сейчас это занимает минуты. И качество чуть похуже, чем на чистом CPU, с которым ещё дольше.
Настоящие материалы это когда смотришь на отрендеренный цемент, воск, кожу, ткань, ржавый металл и веришь, что они настоящие.

С приходом physically based rendering это умеет любой нормальный двиг нынче. Остальное зависит от художников, чтобы нарисовать хорошие текстуры и подстроить параметры под такой рендер. Рейтрейсинг тут не нужен. Намного сложнее сделать то, для чего рейтрейсинг как раз нужен. Отражения. И не зеркальные, а рассеянные с несколькими отскоками, чтобы в играх ненаправленное освещение наконец можно было сделать нормальное. В каком-нить метро последнем как раз начали с этим заигрывать.
С приходом physically based rendering это умеет любой нормальный двиг нынче
Что умеет? Движки в играх умеют real-time рейтрейсинг сложных материалов, а в дорогущие профессиональные рендеры для 3D-редакторов этого никак не завезут? :)

И не зеркальные, а рассеянные с несколькими отскоками, чтобы в играх ненаправленное освещение наконец можно было сделать нормальное
Рассеяные отражения и есть в воске, коже и других материалах.

При чем тут рейтресинг? Вы говорили о натуральных материалах. Они появились с появлением в массах физически корректного рендера. Профессиональные рендеры этот подход как раз и начали первыми.


Воск и кожу мы умеем отлично показывать без рейтрейса. Это вполне решенный вопрос. Я говорю о global illumination. О нормальном рассеянном свете от источников освещения. В основном это делается или тупо статикой или запекаются пробы, которые худо бедно можно на динамические объекты рисовать. А вот чтобы прямо в рилтайм это все считать, чтобы цикл дня и ночи нормально работал, чтобы дом можно было снести и все обновилось. Чтобы вошёл в комнату, куда лишь небольшой просвет есть, а отраженный свет её полностью осветил. Вот с этим всем проблемы и все фейковые реализации оставляют желать лучшего. Пытаются эмулировать отдельные эффекты типа АО, color bleeding, но все не то. Было многообещающее SVOGI, но оно оказалось слишком тяжелым и из анрила вырезали. Больше не видал особо сильного прогресса. Сейчас вот с рейтрейсом явно пойдёт процесс быстрее.

При чем тут рейтресинг?
Странный вопрос, учитывая, что изначально мой комментарий про него и был :)
Воск и кожу мы умеем отлично показывать без рейтрейса. Это вполне решенный вопрос
Вот материалы для рейтрейсинга, про которые я говорю — thearender.media/site/home.php, www.indigorenderer.com/materials/categories/1. В них куча текстур, карт, параметров для отражений. Никаким другим способом, кроме рейтрейсинга их не отобразить. Но я верю, что можно сделать такой же материал для другого способа рендеринга, который будет выглядеть почти так же. Если бы статичные сцены с этими материалами с таким же качеством можно было отрендерить другим способом, это бы уже давно сделали. Поэтому, повторю свой изначальный вопрос — ускорит ли RTX 3000-й серии такой рейтрейсинг? Хотя бы в разы, но лучше, конечно, на порядки.
Если что — я не профессиональный моделлер (или как там они называются), это исключительно моё хобби.
Странный вопрос, учитывая, что изначально мой комментарий про него и был :)

Я такого не заметил
Так когда в играх, кроме блестяшек и отражалок будут настоящие материалы, как в рендеринге в 3D-редакторах?

Просили материалы — они есть, со старта этого поколения консолей, когда PBR пошел в массы. С этого времени из игр исчез этот эффект, когда все вокруг спекуляром обмазано.

В них куча текстур, карт, параметров для отражений. Никаким другим способом, кроме рейтрейсинга их не отобразить

Еще как отразить. По обоим ссылкам я не вижу ничего прям такого невероятного. Обычные материалы, большинство так вообще убогие. Возьми анрил энжин 4 и тоже самое там можно будет накрутить из коробки. Отражения — SSR, cube map и прочие штуки запросто справятся. Проблема с отражениями в другом — убрать артефакты и ограничения тех же screen space техник. Именно на этом строилась вся пиар кампания RTX видеокарт. Но все это примитив все равно. Самое сложное это indirect lighting. Вот именно это без рейтрейсинга сделать никак не получается. И материалы тут не при чем.

ускорит ли RTX 3000-й серии такой рейтрейсинг?

Какой такой? Качество материалов упирается в формулы расчета этих самых материалов, ту самую BRDF, а не в рейтрейсинг. Он тут особо не при чем. PBR дал нам эти самые формулы, которые намного ближе к реальности, а не blinn-phong модель, которую все юзали до этого. После этого мы в играх видим порой неотличимые от реальности материалы. Один из лучших примеров был и остается order 1886, где люди очень много времени как раз потратили на текстуры и настройку параметров. Опять же, технологии все есть. Вопрос в ассетах и подстройке, а это время. Именно поэтому сейчас в ход пошла фотограмметрия, чтобы вообще идентичные реальности сцены в играх получались, без преувеличений.
Короче :) Будут с RTX рендеры для 3D-редакторов рейтрейсить ту же самую картинку за секунды, вместо минут-часов как сейчас? Понятно, что надо в них добавить поддержку этой технологии сначала.
Чудес не бывает, так что уверен, что нет.
P.S. в 3D разбираюсь поверхосно.
Чудес не бывает
А при чём здесь чудеса? В карте аппаратное ускорение рейтрейсинга, в софте — нужда в рэйтрейсинге.
в 3D разбираюсь поверхосно
И я не профессионал. Поэтому уже которую неделю жду авторитетный ответ :)
В карте аппаратное ускорение рейтрейсинга, в софте — нужда в рэйтрейсинге.

Число объектов, всяких треугольников и прочих фиготеней в игре и фотореалистичном рендеринге весьма сильно отличается. Карты еле тянут первое, и им ещё очень далеко до второго.
Во, первый ответ по делу! Понятно. Но какое-то ускорение всё-таки должно же быть?
Спасибо! Скачок незначительный, прям сказать не очень-то и скачок. Учитывая что и 3080 почти в два раза шустрее 2080, можно ожидать примерно 2.5-3 раза быстрее по сравнению с CUDA. Интересно было бы посмотреть попиксельное сравнение изображений.

Учитывая, что это Cycles — там вряд ли есть какая-то разница в итоговой картинке. Разве что некий AI denoiser из статьи что-то поменяет, не знаю.
Могу только сказать, что я сцены из воркшопа сам пробовал считать на своей машине на RTX 2070S и на Ryzen 3800X, и для, например, 1000 проходов заметный шум был и там и там, потому поднимал проходы до 3000. С тремя тысячами проходов видеокарта справилась за ~15 минут, процессор, что характерно, почти не отстал (может быть, дело в драйверах под Linux). Попиксельного сравнения я делать не стал — но если интересно, в принципе, могу пересчитать обе сцены ещё раз и залить эти четыре картинки на хабр, чтобы более знающие люди могли посмотреть разницу.

Давайте, я вычту два изображения друг из друга и выложу изображение-разницу, если оно будет отличаться от чёрного квадрата
В цену топовых видеокарт входят сворованные через torrent игры?
А про лучи в Intel говорили 15 лет назад.
Что трассировка лучей вот-вот увидит свет в их интегрированных решениях. Технология прижилась. А теперь пытается продаваться за немалые деньги. А что с того- ну не мне же за вас думать, право.
Ничо не понял. Обещала когда-то интел, никто значения не придал. А сделала, в итоге, нвидиа. Вывод-то какой?
Продажа одного ненужного одним бандлом с другим не нужным- основа бизнеса, даже в СССР с чем-то полезным давали что-то бесполезное «в нагрузку». Лично меня это всегда настораживает.

Да, но бесполезное это для вас, а многие ждут эту игру. Вы сверху написали про игры и вот они.

Знаете что никто не сможет предоставить такие пруфы и спрашиваете?


Игру которую никто не ждет не будут обсуждать сотнями комментариев. Можете посмотреть дтф: https://dtf.ru/tag/watchdogs
Открывайте где про legends.

Я тут вмешаюсь в ваш спор, но…
Открыл пару-тройку первых попавшихся. Знаете, сотни комментариев, где в топе «о, опять куча унылого гринда» и «очередная донатная дрочильня» это не показатель ожидания игры.
Это скорее показатель небольшого разочарования от ожидания. Но игра еще не вышла, пока рано судить.
Таков бизнес. Рекламщики. Маркетологи. Перепродавцы. В общем весь канал сбыта там и чуток игроманов. А насчёт пруфов- так зачем утверждать неподтверждаемое, да ещё и обвинять меня в субъективности, а? :)
Там везде надо дописывать «по моему мнению», без этого никак?
Нигде не упоминается сколько так енкодирующих потоков для видео пожатия?
Если NVENC без изменений (на это все указывает), то три. NVIDIA специально не дает больше на десктопных картах.
Извиняюсь за неточность. Потоков скорее всего три, как во всех остальных десктопных решениях (опять регулируется драйвером, можно обойти). А вот количество NVENC (енкодеров) на чип не упоминается.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.