Pull to refresh

Comments 30

Ну на графиках нет главного, как видеокарта будет выступать в сравнении с Nvidia в играх с рейтрейсингом.
Есть сравнение по FPS в 4K, которое наверняка подразумевает включенный рейтрейсинг в том числе.
Есть сравнение по FPS в 4K, которое наверняка подразумевает включенный рейтрейсинг в том числе.


Она может подразумевать и отключенный рейтрейсинг, ибо при включении рейтрейсинга дико падает производительность.

А 4К напротив — требует большей производительности.
Тут недавно выяснилось что новые Смотрящие собаки не выдают стабильных 60 ФПС на 3090 (Ультра,4к, но лучи отключены). Я к тому что тесты они разные бывают, и если не написано — то не стоит подразумевать.
И DLSS 2.0!

(2.0 в названии DLSS 2.0 — это количество поддерживающих технологию игр, да.)
Ну к слову, те игры в которых dlss нет, видеокарта прекрасно и так тянет. Оно же больше для игр с лучами.
Буквально только что увидел новость — RTX 3080 оказалась на треть быстрее RX 6800 XT в технологии трассировки лучей — сообщает Videocardz

Ресурс Videocardz, со ссылкой на Reddit и пользователя NegativeXyzen сообщил, что в пресс-релизе видеокарты Radeon RX 6800XT имеется информация о её тестировании в приложения Procedural Geometry из пакета Microsoft DXR SDK. В нём Radeon RX 6800XT показала частоту кадров в районе 471 fps при использовании аппаратной трассировки лучей.… Однако, пользователь NegativeXyzen протестировал производительность своей RTX 3080 в том же приложении и сообщил о средней частоте кадров 630 fps. Таким образом видеокарта NVIDIA оказалась на треть производительнее, при использовании аппаратной трассировки лучей. В том же тесте GeForce RTX 3090 набирает 749 fps, что 59% больше, чем у AMD RX 6800XT.

Не холивара ради, за что купил как говорится :)
То есть, два разных юзера тестировали на двух тестовых станциях две разных видеокарты? Думается, что там CPU и RAM имеют очень большое влияние. Да и AMDшники ведь упоминают какую-то технологию синхронизации с процами, так что может тот перец тестировал на Интеле :)
Так что пока что надо ждать нормальных тестов, на одной и той же конфигурации.
В нём Radeon RX 6800XT показала частоту кадров в районе 471 fps при использовании аппаратной трассировки лучей.… Однако, пользователь NegativeXyzen протестировал производительность своей RTX 3080 в том же приложении и сообщил о средней частоте кадров 630 fps.


Нам любое годится.
За превышает возможности мониторов. Даже лучших-наилучших супергеймерских из них.

Это в разрешении 320x200?

Ибо что то не верится, чтобы в новомодном 4К, на который уже ориентировалось даже предыдущее поколение (но плохо тянула 4К), и на которое наверняка уже ориентировано это поколение были бы сотни.
были бы сотни.

Имеется ввиду — сотни кадров в секунду на 4К с включенным аппаратным рейтрейсингом.
Предыдущее поколение при включенном рейтрейсинге даже не всегда одну сотню кадров давало на обычном HD, все больше десятки кадров.

Это же какой-то синтетический тест неопределённой сложности, а не реальные игры.

Эмм, партизанский маркетинг от зеленых? Тестов еще много будет — когда наберется критическая масса, тогда и решим что производительней. Ну и так чисто для памяти — скандалы с тем как инвидиа покупала крупных обзорщиков железа были не вчера.

Выглядит интересно, ждём железок в руках независимых медиа, которые оттестируют карты в реальных сценариях в разных играх на разном железе. Все "контролируемые" тесты, что от синих, что от красных, что от зелёных — одна профанация.


Рейтрейсинг, конечно же, как всегда — полнейший зоопарк, у одних RTX cores, которые могут делать что угодно, если реализовано в драйверах (вулкан, dx, кастомные RT имплементации), у других DXR-only. Надеюсь через несколько лет хотя бы придут к более-менее устоявшемуся набору RT-имплементаций и доступа к ядрам на картах любых производителей. В условиях RT стало понятно наличие "infinity cache" ибо, походу, 1 RT-ядро на 1 CU и без общего быстрого кэша попахивает проблемами. Вообще сам "infinity cache" — довольно интересный концепт, но посмотрим его в настоящих тестах, может там вообще frame pacing будет нестабильный.

Вот вроде и хочется 3080 взять, но 10 Гб для 4к явно недастоточно… ждем тестов в общем
Там час назад стартанули продажи в России и по классике все разобрали в первые минуты
Кто сказал что не достаточно? Все достаточно.
Так это зависит от размера текстур. Можно сделать игру, которая и в 8K уместится с отличной производительностью в 4GB видеопамяти. Проблема в том, что для среднестатистических игр в 4K на максимальных настройках графики расход видеопамяти вплотную подошел к 10GB, а новые GPU от Nvidia только выходят на рынок с таким объемом.

Если вы пропустили, то для DOOM Eternal с максимальным качеством текстур в 4K уже не хватает 10GB, производительность проседает относительно RTX 3090 значительно больше, чем в играх не упирающихся в видеопамять. А если качество текстур снизить на одну ступень, то различие между RTX 3080 и RTX 3090 существенно снижается.

они как айфончики. увеличивали RAM внутри на 0.5 ГБ. как было когда-то во времена arm с А9 SoC, что выходили смартфоны с 1.5ГБ оперативки. вот. айфоны такими и делали. 1 1.5, 2, 3, 4только сейчас. когда кругом топы м 16, 18. а у них тютелька-в тютельку. ювелиры, ть...

> Вот вроде и хочется 3080 взять, но 10 Гб для 4к явно недастоточно
Взял 3080, играю в 4к — пока в памчять нигде не упирался абсолютно.
Так это потому что пока рынок 4к гейминга слишком мал, вот и и приходится текстуры под 6 гигов урезать. Но даже сейчас во многих играх на макималках память приближается к 10 Гб, после чего уходит в аналог свопа, только для GPU, с соответствующим падением фпс
Память выделяют пулами, так что то что вы видите — чаще всего Allocation, а не реальное использование.
Это если смотреть просто на расход видеопамяти. А вывод о недостаточности 10GB сделан на основе существенного падения производительности при изменении настроек качества текстур в некоторых играх. Когда видеопамяти хватает — эта настройка на производительность практически не влияет.
И ни капли информации, за счёт чего увеличение производительности (кроме оптимизаций памяти), а также чем именно отличаются разные версии.
RX 6800: 1815Mhz базовая частота, 2105Mhz в бусте, 16.17 терафлопс, 60 вычислительных блоков, потребляет 250Вт.
RX 6800 XT: 2015Mhz базовая частота, 2250Mhz в бусте, 20.74 терафлопс, 72 вычислительных блока, потребляет 300Вт.
RX 6900 XT: 2015Mhz базовая частота, 2250Mhz в бусте, 23.04 терафлопс, 80 вычислительных блоков, потребление не указано.

Вроде бы всё хорошо, но самого главного нет: сколько в этих картах SP/TMU/ROP? Что касается памяти, Vega Frontier с 16Гб HBM2 и сейчас неплохо себя чувствует.

Меня больше интересует не производительность в 4к а стабильные 165+ фпс в фуллхд/2к в последних играх. Тут уже будем посмотреть чья технология даст лучшие результаты.

Only those users with full accounts are able to leave comments. Log in, please.

Information

Founded
Location
Россия
Website
pixonic.com
Employees
201–500 employees
Registered