Открыть список
Как стать автором
Обновить

Новая архитектура AMD RDNA 2: преимущества видеокарт Radeon RX 6000 по сравнению с конкурентами и предшественницами

Блог компании PixonicКонференцииКомпьютерное железоВидеокартыИгры и игровые приставки
Всего голосов 27: ↑26 и ↓1 +25
Просмотры18K
Комментарии 30

Комментарии 30

Ну на графиках нет главного, как видеокарта будет выступать в сравнении с Nvidia в играх с рейтрейсингом.
Есть сравнение по FPS в 4K, которое наверняка подразумевает включенный рейтрейсинг в том числе.
Не подразумевает.
Очень не верю графикам без 100% подписей к ним.
Есть сравнение по FPS в 4K, которое наверняка подразумевает включенный рейтрейсинг в том числе.


Она может подразумевать и отключенный рейтрейсинг, ибо при включении рейтрейсинга дико падает производительность.

А 4К напротив — требует большей производительности.
Тут недавно выяснилось что новые Смотрящие собаки не выдают стабильных 60 ФПС на 3090 (Ультра,4к, но лучи отключены). Я к тому что тесты они разные бывают, и если не написано — то не стоит подразумевать.
И DLSS 2.0!

(2.0 в названии DLSS 2.0 — это количество поддерживающих технологию игр, да.)
Ну к слову, те игры в которых dlss нет, видеокарта прекрасно и так тянет. Оно же больше для игр с лучами.
Буквально только что увидел новость — RTX 3080 оказалась на треть быстрее RX 6800 XT в технологии трассировки лучей — сообщает Videocardz

Ресурс Videocardz, со ссылкой на Reddit и пользователя NegativeXyzen сообщил, что в пресс-релизе видеокарты Radeon RX 6800XT имеется информация о её тестировании в приложения Procedural Geometry из пакета Microsoft DXR SDK. В нём Radeon RX 6800XT показала частоту кадров в районе 471 fps при использовании аппаратной трассировки лучей.… Однако, пользователь NegativeXyzen протестировал производительность своей RTX 3080 в том же приложении и сообщил о средней частоте кадров 630 fps. Таким образом видеокарта NVIDIA оказалась на треть производительнее, при использовании аппаратной трассировки лучей. В том же тесте GeForce RTX 3090 набирает 749 fps, что 59% больше, чем у AMD RX 6800XT.

Не холивара ради, за что купил как говорится :)
То есть, два разных юзера тестировали на двух тестовых станциях две разных видеокарты? Думается, что там CPU и RAM имеют очень большое влияние. Да и AMDшники ведь упоминают какую-то технологию синхронизации с процами, так что может тот перец тестировал на Интеле :)
Так что пока что надо ждать нормальных тестов, на одной и той же конфигурации.
В нём Radeon RX 6800XT показала частоту кадров в районе 471 fps при использовании аппаратной трассировки лучей.… Однако, пользователь NegativeXyzen протестировал производительность своей RTX 3080 в том же приложении и сообщил о средней частоте кадров 630 fps.


Нам любое годится.
За превышает возможности мониторов. Даже лучших-наилучших супергеймерских из них.

Это в разрешении 320x200?

Ибо что то не верится, чтобы в новомодном 4К, на который уже ориентировалось даже предыдущее поколение (но плохо тянула 4К), и на которое наверняка уже ориентировано это поколение были бы сотни.
были бы сотни.

Имеется ввиду — сотни кадров в секунду на 4К с включенным аппаратным рейтрейсингом.
Предыдущее поколение при включенном рейтрейсинге даже не всегда одну сотню кадров давало на обычном HD, все больше десятки кадров.

Это же какой-то синтетический тест неопределённой сложности, а не реальные игры.

Эмм, партизанский маркетинг от зеленых? Тестов еще много будет — когда наберется критическая масса, тогда и решим что производительней. Ну и так чисто для памяти — скандалы с тем как инвидиа покупала крупных обзорщиков железа были не вчера.

Выглядит интересно, ждём железок в руках независимых медиа, которые оттестируют карты в реальных сценариях в разных играх на разном железе. Все "контролируемые" тесты, что от синих, что от красных, что от зелёных — одна профанация.


Рейтрейсинг, конечно же, как всегда — полнейший зоопарк, у одних RTX cores, которые могут делать что угодно, если реализовано в драйверах (вулкан, dx, кастомные RT имплементации), у других DXR-only. Надеюсь через несколько лет хотя бы придут к более-менее устоявшемуся набору RT-имплементаций и доступа к ядрам на картах любых производителей. В условиях RT стало понятно наличие "infinity cache" ибо, походу, 1 RT-ядро на 1 CU и без общего быстрого кэша попахивает проблемами. Вообще сам "infinity cache" — довольно интересный концепт, но посмотрим его в настоящих тестах, может там вообще frame pacing будет нестабильный.

Вот вроде и хочется 3080 взять, но 10 Гб для 4к явно недастоточно… ждем тестов в общем
Там час назад стартанули продажи в России и по классике все разобрали в первые минуты
Кто сказал что не достаточно? Все достаточно.
Так это зависит от размера текстур. Можно сделать игру, которая и в 8K уместится с отличной производительностью в 4GB видеопамяти. Проблема в том, что для среднестатистических игр в 4K на максимальных настройках графики расход видеопамяти вплотную подошел к 10GB, а новые GPU от Nvidia только выходят на рынок с таким объемом.

Если вы пропустили, то для DOOM Eternal с максимальным качеством текстур в 4K уже не хватает 10GB, производительность проседает относительно RTX 3090 значительно больше, чем в играх не упирающихся в видеопамять. А если качество текстур снизить на одну ступень, то различие между RTX 3080 и RTX 3090 существенно снижается.

они как айфончики. увеличивали RAM внутри на 0.5 ГБ. как было когда-то во времена arm с А9 SoC, что выходили смартфоны с 1.5ГБ оперативки. вот. айфоны такими и делали. 1 1.5, 2, 3, 4только сейчас. когда кругом топы м 16, 18. а у них тютелька-в тютельку. ювелиры, ть...

> Вот вроде и хочется 3080 взять, но 10 Гб для 4к явно недастоточно
Взял 3080, играю в 4к — пока в памчять нигде не упирался абсолютно.
Нет, я в Канаде проживаю.
Так это потому что пока рынок 4к гейминга слишком мал, вот и и приходится текстуры под 6 гигов урезать. Но даже сейчас во многих играх на макималках память приближается к 10 Гб, после чего уходит в аналог свопа, только для GPU, с соответствующим падением фпс
Память выделяют пулами, так что то что вы видите — чаще всего Allocation, а не реальное использование.
Это если смотреть просто на расход видеопамяти. А вывод о недостаточности 10GB сделан на основе существенного падения производительности при изменении настроек качества текстур в некоторых играх. Когда видеопамяти хватает — эта настройка на производительность практически не влияет.
И ни капли информации, за счёт чего увеличение производительности (кроме оптимизаций памяти), а также чем именно отличаются разные версии.
RX 6800: 1815Mhz базовая частота, 2105Mhz в бусте, 16.17 терафлопс, 60 вычислительных блоков, потребляет 250Вт.
RX 6800 XT: 2015Mhz базовая частота, 2250Mhz в бусте, 20.74 терафлопс, 72 вычислительных блока, потребляет 300Вт.
RX 6900 XT: 2015Mhz базовая частота, 2250Mhz в бусте, 23.04 терафлопс, 80 вычислительных блоков, потребление не указано.
RX 6900 XT: 2015Mhz базовая частота, 2250Mhz в бусте, 23.04 терафлопс, 80 вычислительных блоков, потребление не указано.

По официальным данным — 300 Ватт: www.amd.com/en/products/graphics/amd-radeon-rx-6900-xt

Вроде бы всё хорошо, но самого главного нет: сколько в этих картах SP/TMU/ROP? Что касается памяти, Vega Frontier с 16Гб HBM2 и сейчас неплохо себя чувствует.

Меня больше интересует не производительность в 4к а стабильные 165+ фпс в фуллхд/2к в последних играх. Тут уже будем посмотреть чья технология даст лучшие результаты.

Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.