Comments 60
Это было сделано не из принципа, а из-за трендов гейминг индустрии в основном. Технология Ray tracing все лучше оптимизируется и больше внедряется в современные игры. AMD давно обещают ее у себя, но на деле пока не видно результатов. Соглашусь, что среди линейки AMD есть неплохие 5600 XT, 5700 и 5700 XT, но там все же сыроваты драйвера, и для небольшого числа требовательных пользователей это будет весьма критично.
Трассировка лучей только в конце статьи, до этого тупо игнорится амд. Я например вполне комфотно живу на rx480. Или хотите сказать что у амд нет конкурентов для 1080?
Ну если дотошно сравнивать на UserBenchmark'е, то с мощностью 1080 сравнится разве что 5700 XT. Но это не отменяет того, что видеокарты AMD прошлых поколений всегда очень хороший средний вариант благодаря ценовой политике вендора.
RX 470, 480 безусловно ещё потянет 1080p, но это почти то же самое, что и RX 570, только на поколение постарше
Технология Ray tracing все лучше оптимизируется и больше внедряется в современные игры.
В полторы игры, в полутора местах. К тому времени, когда что-то стоящее будет, настанет пора снова видеокарту менять.
но там все же сыроваты драйвера
АААААА как в 2000-е попал!
Так же можно отметить, что младшие карты RTX тянут эту трассировку ради галочки. Как и в случае в внедрением того же DX12, бюджетные / средние в первых сериях с поддержкой были проходными.
Записывать этакий фантик в плюсы… такое себе.
У красных драйвера сейчас далеко не такие кривые, как были раньше. RX5600 на одном компе, RX570 на другом — полёт нормальный. 5600 брал как более дешёвую альтернативу 2060 (лучи не нужны), не жалею. Есть некоторые странности вроде невыхода видеокарты из спящего режима (редко, может пару раз было за полтора месяца с момента приобретения), но по сравнению с тем адом, что было у радеона раньше, когда кучу версий драйверов надо перепробовать, чтобы оно вообще завелось — такого нет.
А с Linux не знаете как дела обстоят? (простота установки, качество, хороши ли открытые драйверы и можно ими обойтись)
Или судя по описанию проблем — вы про Linux и говорили

Сколько раз хотел купить amd, но останавливали отзывы на Linux форумах о проблемах с этими картами.
Скажем на моей gtx 770, с открытыми работать никак не получается — виснет через какое-то время. на GT210 тоже самое плюс ещё артефакты появляются перед зависанием.
это было ещё во времена убунту 14\16. Больше не пробовал — ставил бинарные blob.
image

image

image

Линуксом не пользуюсь, Убунту ради теста загрузил с флешки, настроек никаких не потребовалось, т.е. это, похоже, opensource драйвер. По мне так вполне недурно. (Бенчмарк не в курсе про RX 5600, показывает её как RX 5700.)
rx480 на линуксе, с момента выхода этой карты (около 4-5 лет)ю Пользуюсб исключительно открытыми дровами, все норм. Возможно под виндой в простое она сильно тише, но и так ее работу не слышу. И производительность на отличном уровне
nouveau — (открытые дрова для nvidia) -тоже не умеют управлять питанием у многих карт — из-за этого они сильнее греются\больше потребляют энергии\сильнее шумят…
Кстати судя по эффектам которые выдаёт OSX, с железом у карт AMD всё в порядке.
Драйверы не Apple ли помогает писать под свою платформу…
но по сравнению с тем адом, что было у радеона раньше, когда кучу версий драйверов надо перепробовать, чтобы оно вообще завелось — такого нет.
Как будто у нвидии всегда было норм. Я вот тоже помню, как разные дрова ставил, потому что из-за изменений физикса отдельные игрушки начинали жутко фризить на 8800gs, а с откатом на пару версий назад всё становилось гладко и шелковисто)
А сейчас вот 660TI под 10-кой периодически такое ощущение перезапускается, да всё лень попинать в чём проблема. а заодно посмотреть, не из-за них ли в гибернации по минут 5 уходит комп.
Буквально месяц назад на ноутбуке dell inspirion (2013 года) ставил драйверы для windows 10 на GF800M — в новых драйверах они уже не поддерживаются, нашёл последнюю версию (где это карта ещё была) на форуме техподдержки nvidia — их и поставил.
GTX 780Ti может иметь больше 3х ГБ.
У меня GTX 770, которая имеет 4ГБ, а это ведь менее мощная карта.
780 Ti с 3гб просто наиболее распространенная на вторичном рынке, чем 770 на 4 гб
____
Конечно 780 Ti может иметь больший объем видеопамяти, но тут речь в основном о доступности

7xx-серия в 2020? Вы серьёзно?
9xx-серия это не предидущее поколение, а пред-предидущее, а осенью 2020, возможно, станет пред-пред-предидущее.
Есть прекрасный бюджетный вариант: 16xx-серия предлагающая существенно лучшее соотношение потребления/производительности, зачем все эти 780, 980?

любая затычка 1030 лучше, чем 750. Я распродал все свои карты обновился до 10-й серии, даже в самых нищебродских HTPC. Накрайняк можно даже брать б/у. Никто на 1030 в здравом уме не майнил. Даже если вообще не брать в расчёт гейминг, то энергопотребление (точнее отсутствие нагрева, тру полуфанлесс в неигровых режимах), драйверная поддержка, поддержка 4к и всех этих HDR в 10 серии сильно лучше, и если сегодня вам это еще не актуально, то через год может пригодиться, а на старых картах с этим не всё так гладко. Я не смог на 750 нормально пользоваться 4к телеком.

За 4.5-5 тысяч вполне реально (в Москве точно) найти у майнеров P106-100 (по производительности уступает процентов десять полноценной 1066), которая уделает эту несчастную 750ti как стоячую. Да, с некоторыми нюансами, но на них можно закрыть глаза, учитывая разницу в производительности.

Брать 700-ю серию сейчас — это ооочень сомнительное решение.
Ну за те же деньги, что 1030 продается 1050 на авито, поэтому как-то не густо смыслом покупать первую. А за 7к можно взять 1066, которая вообще прекрасный аппарат

ну так я и 1030 брал на авито )) Плюс я брал специально лоупрофиль фанлесс под корпус. 1050 такие не бывают. Но вообще да, само собой, 1050ti (которая у меня тоже есть, взял за 5000р) намного интереснее 1030 и почти за ту же цену.

+1
Полгода на Авито не могу продать две своих RX580 за 8к. Греются кстати 580 адски, по производительности от 470 отличаются не на столько что бы я это ощущал в играх, поэтому две 580 у меня на полочке лежат, а играю я на RX470.
RX470 кстати 2.5к прекрасно тянет, шумит только (прогрев максимум 60C), но когда играешь в наушниках это не мешает.
Майнили на 470/480 и 1060/1070, карты 570/580 вышли под конец бума на майнинг и их просо не успели в «оборот» ввести столько же сколько 470-х.
Интересно, сколько еще будет актуальна моя Vega 64. Заказал с CU на распродаже остатков по цене 1660 от зеленых у нас до крысиса.
Кстати, пользуясь случаем, а может кто-нибудь подсказать карту не для гейминга, а чтобы просто поддерживала 4k-монитор? Прикинул по маркету, получилась 1030, что-то дороговато, подешевле нет вариантов?

Нет. Но если собираете новую систему, то можно взять за те же 6 тысяч ryzen 2200g, он может 4к на встроенном видеоядре

А в чём его смысл по сравнению с 3200g, который примерно столько же стоит? Особенно с учетом, что уже 4xxxG скоро в продажу пустят, а недавние 3300x задали жару, так что апушки могут быть вообще огонь?
Тогда уже бу взять или ту же 1030 (ну никто не майнил на них), или апушки амд.

я пару месяцев назад взял 1030 бу за 3500р фанлесс. Именно для 4к телека. Очень доволен. Всё, что старше 10-й серии у нвидии, не советую под 4к.

Всё, что старше 10-й серии у нвидии, не советую под 4к.

А это еще почему?

как минимум на 750ti включение в 10 винде 4k и HDR приводило трудноописуемым глюкам на экране. Так же насколько я помню, там hdmi 1.4 без поддержки 60 герц в 4к.
Ну и устаревание и окончание поддержки дров никто не отменял...

я как чувствовал, что это слово может быть неоднозначно понято )) Да, я имел ввиду старее. Вобщем моя мораль в том, что в 10-й серии реально чувствуется значительный скачок технологий и уменьшения тепловыделения. Поэтому ни при каком раскладе я бы не брал более старые карты, даже топы за дешево.

Совсем сердито — Radeon HD 6870 тышша рублей на авито. Единственно, куча танцев с кастомными разрешениями на Win7, удалось ли загнать в нормальные герцы через HDMI я так и не полнял, но глаза не вытекали.
На Win10 заводить не пробовал.

После успеха Ryzen 3600 на B450 взял RX5600 и наткнулся на глюки, в первом приближении похожие на недостаток мощности блока питания — белые простакивающие горизонтальные полоски, иногда сваливание в серый шум и перезапуск. Первым делом поменял блок питания на более мощный. Не помогло. Вторым делом поменял экземпляр карты — те же симптомы. Третим делом попробовал другой старенький системник на Core 2 Duo — безуспешно. Дефект проявляется сразу после установки драйверов серии 20. В сервисе дефект не признали. Дополнительный обдув не влияет. Нагрузка на карту не влияет. Может на холостом ходу дважды за минуту перезапуститься, а может и 10 минут в Furmark продержаться. Но всеравно упадет. Устал мучатся, выкинул RX5600, поставил GTX1080 и все сразу заработало, и с новым БП на 650Вт, и со старым на 550Вт, хотя nvidia более прожорливая. Вывод грустный, АМД то ли драйверы до сих пор делать не научились, то ли видеокарты, толи я чего то не понимаю.

После успеха ...

А кто был производитель, если не секрет? Я уже лет 15 только на ATI/AMD. Никаких проблем с драйверами не встречал. У меня сейчас адреналин 20.3.1 стоит.


Причин для проблем может быть очень много. Переразогнанная память, переразогнанный процессор, криво работающая поддержка PCIe 3.0 на материнке (ага. вот так вот. на материнке криво работает PCIe 3.0, который пока не поддерживают видеокарты, а визуально глючит видеокарта.).
А еще очень забавные глюки бывают, на некоторых шибко умных и дорогих материнках, если не поставить в настройках частоту памяти, совпадающую с частотой в выбранном XMP-профиле. Глюки могут быть от случайных выключений без каких-либо следов причин в логах, до БСОДов, до абсолютно нормальной работы во всех тестах, но при этом перезагрузок видеодрайвера, перезагрузок, БСОДов при попытке посмотреть видео на ютюбе...


Особенно смешно, когда вытаскиваешь Н-видию, вставляешь АМД, и оно работает больше двух суток подряд без единой проблемы. А потом раз… и опять точно так же глючит.


Я когда свой компьютер пару месяцев назад апгрейдил — у меня было тоже много забавных глюков в АМД проц-чипсет плюс АМД видео. Но полностью полечилось апгрейдом биоса. Кстати, чипсет у меня, как и у вас, B450...

PowerColor AMD Radeon RX5600XT 3DHR/OC с улучшенным кулером на 6-ти тепловых трубках — глючит и на 20.1 (с сайта PowerColor), и 20.2 (WHQL) и 20.3 (Latest).
Palit GeForce GTX1080 JetStream с еще более эпичным кулером без проблем и HL Alyx на ней уже прошел дважды :)
Я предполагаю, что дело в таймингах памяти. Но новый БИОС с сайта PowerColor не помог. Что еще пробовать не знаю. Продавать без проверки неудобно, с проверкой — ковидоопасно. В общем -24900р и добрый совет — обходите 5600XT стороной и в ситилинк не покупайте, денег не вернут, сославшись на то, что видюха включается и на штатном VGA драйвере работает — значит исправна, а царапка от винта — следы установки, значит не новая и 7 дней на проверку — миф.
Новый BIOS на 5600 фактически разгоняет карту, причём в зависимости от производителя либо только процессор, либо и процессор, и память. Возможно, у вас неудачный экземпляр? Правда, родной софт от AMD не умеет понижать частоту памяти, только повышать, но судя по информации на сайте PowerColor, у этой карты есть два BIOS, второй ставит меньшие частоты.
Да, на карте два биос и механический переключатель. Глючат оба.
Я согласен с тем, что бывают дефектные экземпляры, мне досадно что ни в новом Ryzen 3600, ни в старом Core 2 Duo E7600, на лицензионной Windows 10, с блоками питания 650Вт или 550Вт — карта не завелась с родными драйверами 20.*, но на стандартном VGA драйвере работает, экспертиза ситилинка дала заключение что дефектов нет и отказалась возвращать деньги ни как за дефектную, ни как за возвращенную на следующий после покупки день.
Так а что, в сервисный центр производителя сдать, после чего накатать жалобу на ситилинк за это нарушение. Или сразу накатать.
Мне так тоже в другом сетевом магазе завернули как негарантийный ремонт принтер, поставил на уши лексмарк, со второй попытки от них инженер прибежал лично и поменял БП у принтера бесплатно.

В условиях карантина ни права ни желания ходить по сервисным центрам. Я больше надеюсь, что дефект окажется массовым и всплывет какое то решение. Среди этих комментов как раз был шанс встретить спеца. Я еще не пробовал 19 версию драйверов, не пробовал другой монитор. Вдруг дело в моем телевизоре 64”. Не пробовал Windows 7. Да мало ли чего я еще не пробовал. А возражение и несогласие с заключением ситилинк я уже накатал, теперь ждать ответа 30 дней. Потом независимая экспертиза. Суд. Ради 20к? Сомнительное удовольствие.

С производителем связаться не пробовали? У разных фирм по разному работает.
citilink любят обмануть.
У нас когда-то SSD сломался- отнёс к ним в сервис, они его 2 часа ковыряли, потом выписали бумажку на замену, написав на бумаге — что товар заменён и гарантия не продляется. Хотя это прямое нарушение ЗЗПП. Но я спорить не стал, так как в случае поломки — с таким прямым (документальным) нарушением закона, проблемы были бы у них.
Один раз коллега купил микроволновку — так как забирал уже перед закрытием, поставил роспись что товар не проверен в магазине. принёс домой — на ней вмятина.
Утром принёс — ему сказали — надо было приходить вчера.
Но я спорить не стал, так как в случае поломки — с таким прямым (документальным) нарушением закона, проблемы были бы у них.
Так и в этом случае явно бумажка подставляет ситилинк больше. Сдается в нормальный, дефект находится и за то, что отказывались могут попасть только. Вообще с самого начала надо начинать, чтоб писали письменно все свои отказы.
RX5600 производства MSI, драйверы 20.2.2, полёт почти нормальный. Пару раз за полтора месяца с момента приобретения были похожие симптомы — белый шум на экране при выходе из спящего режима, который лечится только ресетом, но так полёт нормальный, в том числе под многочасовой нагрузкой: сразу после приобретения где-то час гонял в Furmark, ну и потом по прямому назначению, правда, в совсем уж тяжёлые игрушки не играю — Doom 2016, TESO.
Была однажды проблема, году в 2001м — поставил GeForce какой-то от Gigabyte, и соответственно его драйверы с диска, и при запуске 3DMark, либо какой-то 3D игрушки — минут через десять работы программа просто вылетала…

Скачал 40Мб драйверов (на модеме ещё) от самой NVidia — он тогда назывался Detonator — и всё заработало как часы. с тех пор — все драйверы на видеокарту nvidia — сразу качаю с сайта nvidia

Интересно, на что будут способны ожидаемые APU Ryzen 4...G?
Их мобильные собратья весьма неплохи.

Но, есть одна опасность при покупке данной видеокарты со вторичного рынка – карты после майнинга. Не так давно был бум майнинга, и RX 570 была практически самой распространенной среди майнинг ферм. Если фермы были домашние, без дополнительного охлаждения и мощного блока питания, то карты запросто могли перегреваться и изнашиваться гораздо сильнее, чем при простом использовании в компьютере, поэтому нужно быть внимательнее при осмотре и покупке.

Совсем не обоснованное мнение фактами, а «мнения диванного эксперта». А как Вам такое мнения что лучше взять б/у после майнинга чем после геймера.
Так как геймер поиграет часок второй, потом выключает — получается резкий перепад температуры, например с 80 до 30.
А что убивает видеокарту?
Частые скачки температуры могут стать смертельными для вашей карты (вот и повод для отслоение чипа). Это справедливо только для игр или периодического майнинга. Если вы майните 24/7 нет смысла гнаться за низкими температурами. Т.к. видеокарта работает без перепадов. Карта в разы быстрее устареет, чем умрёт!
Какую температуру стоит бояться?
Для всех карт от Nvidia допустимая температура 88 градусов. Для AMD оптимальной температурой считается 90-100 градусов.
Где то была статья с описанием зависимости вероятности выхода из строя оборудования от времени наработки (может и о hdd).
Навскидку был вывод с графиком первый год шансы высокие и со временем только снижаются — если были косяки / дефекты, они проявляются вначале эксплуатации.

Другое дело, что отбраковку нередко пытаются временно оживить и втюхать, пока работает.

а это ваше утверждение, подкреплённое опытом, или тоже "мнение"? Мои фермы с ним не согласны. У всех карт умерли подшипники вентиляторов в большей или меньшей степени (а это не стандартный 120мм вентиль, который пошел и купил новый). По поводу отвала, да есть теория, что отвал случается из-за перепадов, но есть и теория, что отвал/сдвиг массой чипа случается из-за диффузии размягченного припоя на постоянной высокой температуре. Так как часть наших карт после пары лет 24/7 точно так же начали лагать с артефактами в 3д режиме.

безусловно, рукожопством и недосмотром можно задеградировать карту в обоих случаях. Я лишь выразил своё мнение на основе процента глючных карт со своих ферм. Не исключаю, что и на б/у рынке немайнинговых карт этот процент может быть даже выше среди греющихся моделей. Но лично мне видимо везло на масштабах того десятка б/у карт, что я покупал за свою жизнь.
В любом случае в видео правильная мысль — всегда как минимум прожарьте карту фурмарком перед покупкой. Это наверняка вскроет бОльшую часть возможных проблем с вентиляторами и отвалом

В сегменте бюджет не стоит рассматривать nVidia вот вообще. Особенно 7xx-е карты, они мамонты! У нас есть неплохие R9 280x за полтинник, есть R9 390, которые на 10 у.е. дороже, но пашет уже на уровне 1060. Да, карты ОГОНЬ в прямом смысле этого слова, и требуют добротный блок питания, но еще 10-15 у.е. и уже просыпаются RX 480, чуть докинуть — и у нас 580е! Вообщем, покуда раздают эти карты, смысла в покупке 1050Ti-1060 и ниже, карт от nVidia, нет от слова совсем. Дорого. И в проектах, где типа они применяют волшебные технологии, вы их использовать не будете. А только ковыряться в настройках, молясь выйти где на 60 кадров, а где и на консольные 30ть.
Не смешивайте в кучу б/у карты и новые, в этом нет смысла на мой взгляд. Это разные сегменты рынка, б/у карта, особенно горячая — это в лучшем случае лотерея. Плюс на нее нужно к цене добавлять еще стоимость замены термо-интерфейса (почем сейчас — 1000р?), возможно деформировавшегося от перегрева пластика, вентилляторов. Плюс к цене стоимость перерасхода электроэнергии для данной производительности (каждые 100W — за десять часов — киловатт*час, т.е. 5р). Тысяча часов предполагаемого срока службы — плюс 5000р электроэнергии к цене. Плюс к цене добавьте разницу в цене блока питания на большую мощность (рублей 500 наверное). Плюс цена доп.вентилляторов на корпус. Плюс цена риска из-за отсутствия гарантии. Когда все добавите к цене — задайте себе вопрос — а настолько ли вы богаты, чтобы покупать б/у.
GeFORCE GTX 1060 (только версия с 6 Гб GDDR5 видеопамяти). Данная видеокарта нужна тем, кто уж очень боится за температуры и плохое продувание корпуса. Производительность, несмотря на большее количество видеопамяти, все-таки немного хуже, но зато GTX 1060 всегда остается холодной относительно RX 570.
Где вы этот бред нашли? GTX 1060 с 6 Гб GDDR5 хуже RX 570?

"...GeFORCE GTX 2060…
...GeFORCE GTX 2070
...GeFORCE GTX 2080..."
Не бывает таких моделей.


Брать что-то старше 10хх серии в 2020 это как-то тупо.
А смотреть исключительно на зеленые видюхи — тупо вдвойне.

Минимум что можно брать в 2020 для игр это RX470/480/570/580 от AMD и 1060 от NVidia. Причем брать модели в идеале на 6/8гб видеопамяти.

780 и 980Ti тот ещё горячий кал с отвалом. Вместо 750Ti можно взять RX560 4GB. Оптимальные карты для комфортного гейминга в 1080 570-590 за свои деньги. Для нормального Ray Tracing-а нужна нормальная карта, так что мимо. У самого стоит новая RX590 купил за 12 тысяч если в рублях. По производительности это GTX 1660, которая дороже и имеет меньший буфер памяти. Единственное жрет много, но андервольтинг все решил. Пост фанатика зелёных, сразу видно ...

Может, кто-то подскажет? Хочу производительную видеокарту, на 8 Гб видеопамяти, но чтоб была поддержка Win7. Какие видеокарты её ещё поддерживают, а какие уже нет?

Only those users with full accounts are able to leave comments. Log in, please.