Открыть список
Как стать автором
Обновить

Комментарии 39

геймеры оказались избалованы выбором

Это точно, сидишь и выбираешь — не куплю я в этом году NVIDIA или может AMD не куплю карту? А если обе сразу не купить?

А так очень круто, что нарастили энергоэффективность. Очень жду карты на 75W и что они могут вытянуть.
А я жду когда-же карты будут наконец-то 500w и производители будут оперативно делать версии с водоблоками. На данный момент нет ни одной достойной RTX3080\3090 с водоблоком. Те что есть обрезаны лимитами питания сильнее, чем воздушные версии.
AMD в 75W, то ли не умеет, то ли не хочет. У них в этом теплопакете только заглушки были.
nVidia делала через поколение: 750 Ti, 950 Ti 6 pin, 1050 Ti, 2050 даже не делали, 1650 в модификации GDDR5.
Сильно надеялся увидеть 3050 в варианте «до 75», но не судьба. Требует доппитание.
Возможно, будет в 4050, если лучи научат быть менее прожорливыми. И круто будет, если DLSS завезут.

Ну 240/250 была, 550 тоже, вполне себе нормальные карты...

550

настолько, что проигрывала на 20% трёхлетней старушке gtx 750 (не Ti)? И на 40% gtx 750 Ti?
1050 и 1050 Ti обгоняли её на 110% и 140% соответственно!
Максимум — карта для контры. Впрочем, она так и позиционировалась, если мне память не изменяет — для e-sports

Во-первых, есть ещё 560я, которая 75вт и уровня 950 примерно, во-вторых, 550 между 750 и 750ти и при этом 50вт и бывает low-profile, где свои нюансы

AMD в 75W, то ли не умеет, то ли не хочет. У них в этом теплопакете только заглушки были.

4670/5670/6670 не сказать чтобы были прям заглушками, вполне достойные карты для своего времени и цены. По теплопакету RX550 вписывается, но такой не пользовался, не знаю какова она в работе. И даже RX560 вроде как 75вт и бывает без доппитания.

PCI-E 4.0 поддерживает уже 300W, а не 75, как в PCI-E 2.0

Спасибо, буду знать
А известно поддерживают ли RTX 30*0 hdmi 2.1 VRR? Поддержка Nvidia этого не знает. Иногда отвечает да, иногда нет.
Всё бы хорошо, если б не качество дров и поддержки разработчиков AMD :(
Что ни говори, но AMD безусловный лидер в гонке создания проблем :/
Нет никаких проблем уже несколько лет, по крайней мере у меня лично. Дрова ставлю сразу по выходу, даже если без "подписи". Они были раньше, да, но очень давно. А теперь только мелкие даже не баги, а так — недоработки.
Так что лидерства никакого не вижу. Тем более «безусловного».

Это с позиции пользователя или разработчика? Если с позиции пользователя, то наверное и не заметно, т.к. разработчики попотели. Не зря у нас для агентов с AMD в CI висит не мало особых условий и хаков, поверьте.
Для примера запись в gl TextureView как не работала, так и не работает в соответствии со стандартом. Баг висит уже больше года, кажется.
OpenGL и Vulkan возвращают разные ID видеокарты, хотя должны давать одинаковый ID (это пофиксили, ушло всего пол года).
Иногда поменять местами пару строк в шейдере достаточно, чтобы драйвер умер в процессе исполнения (это не я тупой, это подтверждённый практикой.и опытными коллегами опыт — оптимизатор может просто криво "соптимизировать" "ненужную" инструкцию).
При переходе на серию RX5XXX они взяли и поломали анизатропную фильтрацию ¯_(ツ)_/¯
И так далее.
С инструментами для разработчиков тоже беда. Каждую пару лет что-то новое. Старое забрасывается. Новое не работает со старыми моделями.


Но надо отдать должное — они публикуют много интересных текстов и подробностей архитектуры. Жаль, что с софтом они не так продуктивны.

Подозреваю, что основная проблема — долгий срок, когда амд генерировал сплошные долги. У них и инженеров по железу не так чтобы хватало одновременно вести все проекты параллельно, а не последовательно.
Думаю, в связи с выходом на хорошую прибыльность и расширением штата, они подтянут свои хвосты…

Хочется верить. Монополист в лице nvidia это не круто. Пока среди наших пользователей около 10% с AMD.

Ой, а что можно почитать про разработку для AMD? Или про проблемы AMD и способы обхода? Полный новичок в графике, но уже наткнулся, что под Nvidia проблем нет, а под AMD не работает и даже не ясно, в чем проблема. (Опенсорс проект (Vita3k), у основных разработчиков nvidia, под amd местами не работает)

Конкретно для разработки именно под AMD вроде как и нет — OpenGL, DirectX, Vulkan — в теории везде должно работать одинаково. На практике AMD не прощает ошибок — там, где nvidia наплюёт например на неправильный флаг типа желаемой памяти или отсутствия синхронизации в нужном месте, AMD будет ругаться или ломаться требуя точного следования стандарту. Это скорее плюс AMD :) Но если большинство разработчиков с nvidia, то у вас проблемы :)
Могу посоветовать RenderDoc и debugging extensions для opengl/vulkan, если они ещё не знакомы. Без них как без рук.
Ещё есть разные тулзы для профилирования и дебага от самой AMD, но разобраться в них (какие вообще актуальны и стоит пробовать?) чёрт ногу сломит.

Спасибо за помощь и подсказки по инструментам. RenderDoc сильно помогает.
Тулзы от AMD искал изначально, но ничего даже близкого к RenderDoc не нашел. Находил профайлеры и софт для Vulkan, а нужен был OpenGl под Windows.

Лет 10 уже слышу, что "вот последние пару лет проблем с дровами точно нет, это раньше были" :)

У меня в играх периодически вылетает ошибка драйвера из-за чего игра перестает прорисовываться. Так что косяки есть.
И вот опять началось — проблем с дровами у AMD нет. Может было когда-то, но сейчас нет, у меня уже RX580 почти с момента старта продаж, и всегда через их прогу обновляю дрова — и нет никаких артефактов и прочей ереси.

Как сказано выше — это разработчики игр хорошо попотели, чтобы у вас не было артефактов и прочей ереси :)
Не то, чтоб был полный мрак. Но периодически всплывают косяки, для которых приходится сооружать специалтные обходные пути для AMD.

Просто я веду к тому, что в комментах к подобной статье про видео карты, хоть тут на хабре (я его много читал до создания учетки), да хоть на других тематических ресурса, обязательно найдутся те, кто будет засирать AMD тем, что дрова полное х, и следовательно будут восхвалять зеленых, при этом никогда не имев видюху от красных.

Почему в графиках нет 6900xt? Сейчас в компе стоит. По ощущениям- производительность чуть больше 2х от производительности 5700xt

Думаю, просто у авторов статьи не было этого видика.
Когда AMD представила RDNA 2 и новые видеокарты Radeon RX 6000, вместе с ними была представлена и так называемая Smart Access Memory.
<...>
В настоящее время на ПК с Windows система ограничена определенной комбинацией процессоров Ryzen 5000, материнских плат серии 500 и видеокарт Radeon RX 6000.
Кстати, при анонсе Radeon RX 6700 XT AMD так же на Ryzen 3000 расширила список совместимости данной технологии (но чипсет и видеокарты нужны свежие)
Я думаю сейчас главным конкурентным параметром является доступность, а не технические характеристики.
Если карта будет на 20% слабее, но на 250% доступней по цене, я её куплю даже не задумываясь.
не будет такого. Цена зависит от характеристик, а не наоборот.
не согласен. GTX 1050 Ti стоила 11 000 рублей ($185). Сегодня, с учетом достижений российской экономики, это было бы чуть менее, чем 14 000 рублей.
Тем не менее, на полки магазинов их вернули по ценам от 17 и выше тысяч рублей, за 1030 просят 9тр, и так далее.
Нет, цены на видяхи сейчас диктуются исключительно «рыночными» аспектами, а не ценами за их характеристики.
Другой момент, но это больше в сторону огорода зеленых камень, что им мешает поставить в средний уровень 6 ГБ или 8 ГБ видеопамяти, пусть и не самой быстрой? Ничего не мешает, но не ставят. При том, что цена за гигабайт видеопамяти пусть и не ноль, но очень скромная.
Назовите меня хоть рептилоидом за такие конспирологические мысли, но не ради долголетия в майнинге эфира такие объемы?
А на публике да — «мы переживаем за геймеров».
Такие объемы (6, 8) ради того, чтобы игры можно было грузить с непожатыми игроделами текстурами. Потому что сегодня абсолютно рядовая игра весит от 50 до 100 гигов, и видеопамяти требует соответственно.
Я имею ввиду, что вышедшие новинки имеют, если не ошибаюсь, минимально 8Гб памяти, при чем даже не у средняков.
RTX 3050 — 4, RTX 3050 Ti — 6GB.
Это уже бюджетный сегмент по номенклатуре идет. Тут не удивительно.
Видимо, понятие «бюджетный» у каждого своё. За цену этого бюджетного сегмента можно купить новенький X-Box Series S (и останется еще на игры), за цену второй можно смело взять PS5 с приводом.
ИМХО, бюджетный — это от 100 до 200 долларов.
Не думаю, что у меня с вами оно разное. Но стоит все же сделать скидку на всеобщий дефицит и дичайшие цены — не удивительно, что «бюджетные» варианты по цене не очень бюджетные теперь, но тем не менее — 50е модельки в сериях всегда шли как бюджетные/начальные решения.
по моему вы прочитали мой пост вне контекста.
Я не отрицал рыночные цены.
Наоборот я отрицал не рыночные цены(возможность существования карты -20% производительности +250% доступности)
Ну, просто рыночность или нерыночность цены сейчас слабо зависит от характеристик.
Можно гнать старые и слабые видюхи за 150 долларов и всё равно будут брать.
Брать будут, но за какую цену?
Как раз сейчас цены как никогда пропорциональны характеристикам.
Вот пример,
на старте 3090 была в 2+ раза дороже, чем 3080, а производительность отличалась процентов на 15-20.
А сейчас что? цена отличается уже не в 2+ раза, а процентов на 30 наверно(если интересны точные цены посмотрите сами, но месяца полтора назад было так)
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.