Как стать автором
Обновить

Комментарии 57

Поскупился и купил под 4К мониторы первую AMD видеокарточку за 15 лет — R9 290. Никогда больше не возьму AMD, хуже их драйверов ничего не видел. Ужасная панель управления, вечные синие экраны, беспробудный сон и артефакты в настольных приложениях.

Желаю вам не повторить моей ошибки :)
Живу на AMD/ATI со времён x1950 xtx (2900 pro, 3870, 4870, 5850, 6930, 7970) — особых проблем не встречал. В основном брал MSI и ASUS, иногда — PowerColor.
У меня есть подозрение, что проблемы частично из-за 4К мониторов — соседний FHD на DVI видеокарта видит всегда.
По Display Port подключены?
Конечно.
Чекните вот этот материал.
У меня до 290 стояла 660 и несколько месяцев с ней не было никаких проблем. Так что дело именно в видеокарточке. Вы меня не обманите :)
Проблема может быть в чем угодно — несовместимость конкретной карты с конкретной материнской платой, проблема конкретной версии драйвера и т.д.
По единичному случаю очень тяжело сделать общий вывод.
У меня видюшка AMD/ATI работает в компе уже 4 года без каких-то особых проблем. Возможно это связано с тем, что комп заводского производства и компоненты проверены на совместимость.
Проблемы встречаются практически со всеми современными видеокартами. Были проблемы с новыми дровами для GTX 550Ti (это затронуло ещё несколько видеокарт из это серии) и пришлось оставаться на старых дровах. Сейчас у меня R9 270X и, к счастью, решил проблему с дрожанием экрана прошивкой VBIOS. Давайте ещё вспомним GTX 970 с её ненастоящими 4 ГБ видеопамяти.
Про неё на днях будет материал. :)
> Были проблемы с новыми дровами для GTX 550Ti (это затронуло ещё несколько видеокарт из это серии)
Решил эту проблему установкой нового драйвера 347.90.
У меня 970 и проблем вообще нет с памятью. Там тяжеловато занять все эти 4 ГБ.
У меня, конечно, не 4К мониторы, но вот карточка та же самая — R9 290. Ни одного синего экрана или артефактов не было. Может, дело в 4К, может в производителе, а может и брак попался, кто знает.
Вы пользуетесь Chrome?
Да.
Попробуйте IE 10-11 или Firefox, в них у меня и у многих других хорошо видны артефакты от AMD карточек.
Я разрабатываю сайты, так что я пользуюсь ими всеми. И не видел ни разу артефактов. Может, скриншот покажете?
Например: habrastorage.org/files/4e8/a55/d4a/4e8a55d4a9b34b5695598c2a9d922351.png
Исправляется любым изменением этой части экрана, наведением курсора мыши, например. В самих страничках такое тоже случается, но обычно при скроллинге и на доли секунды, не заснимешь. В IE 11 аналогично, но обычно на всё окно.
Чуть погуглив, обнаружил что в Catalyst 14.6 был такой баг ( support.amd.com/en-us/kb-articles/Pages/Top-Driver-Issues.aspx#cat14.7 ): Flickering seen on AOC U2868PQU and other 4K monitors and certain AMD Radeon™ graphics cards

Возможно, у вас эта версия и стоит обновить версию драйвера.
У меня 14.12
ATI вместо видеокарты (с)
На днях купил такую карту.
Встретил в Metro Last Light пару артефактов и те похоже были связаны с включенным PhysiX (и 8 фпс, ага).

А вообще — проблем в этой турбине пока не вижу. Тянет все, если не встречаются конфликтные технологии, как тот-же физикс.
Как всегда — кратко и по теме. Спасибо за познавательные статьи.

Жалко что не раскрыта тема ускорения процесса обработки видео, ускорение программ для работы с графикой… я в игры не играю, а видео балуюсь.
Про профессиональные видеокарты и их возможности будет отдельный пост, там и про ускорение видео, и про особенности всяких FireGL и Quadro поговорим. :)
Если будет отдельный пост про профессиональное применение видеокарт, тогда уже напишите не только про профессиональные видеокарты, а именно про этот аспект применения видеокарт. В общем чтобы было тоже про домашнее использование видеокарт не для игр, как-то так.
Надеюсь линейка статей продолжится?
Быстро время летит, core i3 уже старый процессор :(. Что уже говорить про мой Е8400
Первый i3 вышел в январе 2010, крайний — в январе 2015 года. И тот, и тот — двухъядерные. Так что просто говорить «старенький двухъядерный i3», как это описано в статье — несколько неточно.
Мало того, они еще и сокет поменяли на 1150, вместо 1155.

Пару дней назад собрал комп и обрадовался что матери идут в основе своей с сокетом 1150 и все интелы на таком-же сокете, а значит вдруг если я захочу обновить комп — то все что мне надо будет, престо прикупить core i5/i7 который подешевеет к тому времени.
Обсуждать, кто лучше — всё равно, что участвовать в специальной олимпиаде.

Простите, а мне одному кажется такое сравнение неуместным?
Луркояз не преследует цель быть политкорректным.
У меня стоит древняя Nvidea GF 7900GT. Как ни странно, производительность меня устраивает (я правда не играю в самые последние игры). Но 3D пакеты работают на ура. Менять хочу только для поддержки CUDA/opencl
Использую в данный момент GTX 560 TI (1 GB). Производительности уже не всегда хватает, какую видеокарту посоветуете в качестве адекватной замены?
Ну, здесь основная проблема 560-й — 1 ГБ видеопамяти, в который она и упирается. Можно поменять на двухгиговые GTX 760 / 960, или взять трёхгиговую R9 280X в зависимости от объёмов кошелька. Причём R9 280X стоит примерно столько же, но будет на 15% быстрее в играх, и в целом это перелицованный флагман прошлого поколения (7970), тянущий разрешение 2560х1440, со сглаживанием и на высоких настройках без проблем. У него больше памяти и куда интереснее hardware, чем у GTX'ов, но NVIDIA будут немного тише и холоднее.
А существует способ заранее угадать, какая карточка будет тише, а какая громче? По прайсам ведь этого не видно…
Обзоры на Оверклокерс, ЕМНИП, шум мерили.
Вообще — обзоры и только они. Особенно сравнительные.
Стоит ли рассматривать вариант с GeForce GTX 960 (Оценка 3DMark 11 — 9720), или стоит обратить внимание на GeForce GTX 760 (Оценка 3DMark 11 — 8480)? Но при не столь большой разнице в тесте, цена различается довольно сильно.
Использую в данный момент GTX 660 Ti (3 GB). В ограничение производительности упирался пару раз и то на запредельных настройках в «не совсем оптимизированных» играх. Тот-же бургер из статьи вполне себе бодрый на максимумах. Выводы о необходимости того количества «попугаев», что показывают тесты и реальными играми делайте сами.
Сейчас на БУ рынок вышло очень много нвидий 780, они идут в раёне 200 долларов (новые 300 долларов).
Если вы ее протестите у продавца или продавец приедет к вам за лишний десяток баксов, то можно брать.

Взял я себе R9 290 за 6500 грн (300 долларов) правда с большим риском т.к. она ехала с другого города, но вообще помойму такой компонент как видеокарта может быть БУ, если еще на гарантии и работает как надо.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Про удивительный маркетинговый ход очень скоро будет отдельный пост. :)
НЛО прилетело и опубликовало эту надпись здесь
Вопрос: раньше для SLI и CrossFire было необходимо покупать не две одинаковые карты, а «ведущую» и «ведомую», при этом с ведомой шел переходник, соединяющий карты. А теперь как? Можно ли просто пойти и купить две одинаковые платы?
Это было очень давно. Сейчас можно взять две карты одного типа (и даже не всегда обязательно одного вендора) и теоретически всё будет работать. На практике может потребоваться погуллить обзоры и выбрать наиболее удачное сочетание двух видеокарт. Если интересно, могу написать про эт целую статью с наглядными примерами. :) Собирайте подписи на тему SLI / Crossfire в комментариях. :)
Напишите про AMD Dual-Graphics. Плюсы, минусы, стоит ли связываться. Хорошая ли идея купить APU+GPU, какие связки возможны…
Про это уже дважды заказывали, статья в процессе. Скоро будет. :)
Хм, совсем недавно помогал товарищу собирать ПК, старались экономить, по карте остановились на AMD HD 7870. Она хоть и старенькая уже, но удаленькая. Стоит меньше GeForce 750 ti, а по тестам и ТТХ заметно выигрывает. Ну и вообще, иногда имеет смысл смотреть топовые карты предыдущего поколения со скидками. Те же x70-х80 предыдущего поколения от GeForce обычно лучше чем x60 следующего, а стоить могут даже дешевле (но тут как повезет). В ту же степь AMD HD 7950-7970 могут быть дешевле аналогичных новых R9 карт. Кстати это тот самый «старый чип под новым именем», о котором вы говорили.
Статью внимательно читали? :)

image
Как раз таки сейчас, всё стареет гораздо медленнее чем буквально 5-7 лет назад. Но да, каюсь, этот абзац я пробежал как-то по диагонали.
А я бы не сгласился с автором.
Конечно видяха устаревает. Но только через лет 5-10, она вообще ничего новго не запустит.

Но если вспомнить что в 2002 системы выходили с такой скоростью, что за пол года комп устаревал капитально. Вот процессор вышел с частотой 1ггц, а ты пол года назад покупал 600мгц и это был топ.

Сейчас все железо, кроме видях встало. Процы почти не развиваются, оперативка пытается сделать рывок в сторону ДДР4. Видяхи между поколениями набирают по 5-10% производительности, не более. А частота их выхода год — полтора.

А то я на днях таки собрал новый комп, вместо старого, в котором стоял radeon 2600 XT, а этот радеон уже не мог ничего запускать после 2012 года выпуска (а она вышла в конце 2008), хотя видяхи которые вышли 4 года назад еще способны обрабатывать графику новых игр.

На ixbt регулярно публикуют довольно подробные сравнительные обзоры видеокарт.
Особый интерес представляют две таблички в конце: рейтинг производительности «в попугаях» и таблица с соотношением попугаи/цена. Вполне можно использовать ее как отправную точку для подбора видео.
Или, как вариант, зайти на Tom's Hardware и почитать ежемесячную статью «Best Graphics Cards For The Money».
НЛО прилетело и опубликовало эту надпись здесь
Как же я люблю ваши статьи, продавцы-консультанты. В целом, статья получилась грамотнее чем предыдущие, но всё равно добавлю свои советы и комментарии:

— Интегрированные видеокарты обеспечивают неплохой уровень производительности в играх, сопоставимый с уровнем бюджетных моделей видеокарт. В связи с этим, покупку бюджетной видеокарты считаю практически бессмысленной.

— Дискретные видеокарты от Nvidia и AMD это не просто «одно и тоже» от разных производителей, это совершенно разные архитектуры, но на выходе мы в конечном итоге получаем «картинку на экране». Раньше даже игры писались с оптимизацией под конкретного производителя видеочипов, но сейчас ситуация вроде-бы выровнялась

— Стоит сказать о конкретных производителях видеокарт. Некоторые «всеядные» делают изделия как на чипах Nvidia, так и на AMD. Другие же, работают только с одним производителем видеопроцессоров, и устройств на базе конкурента не делают.

— Как это не парадоксально звучит, но главной характеристикой видеокарты как товара является кодовое название графического ядра, а не объём памяти как это любят выдвигать на первый план некоторые хитрые продавцы.

— Следующим важным параметром видеокарты, выходящим из первого является ширина шины данных — в битах. Тут идёт дискретная градация (по нарастающей производительности): 64, 128, 192, 256, 384, 512. Чем больше тем лучше, если денег хватит.

— Далее обращаем внимание на объём памяти и её тип. Конечно, чем объём больше, тем лучше, но сегодня это уже не показатель, так как даже на дешевых моделях (со слабым видеоядром) можно увидеть до 2Гб памяти. Скорость работы памяти определяется её типом. Конечно DDR2 уже не ставят, но есть разница между видеокартами на которых стоит GDDR3 или GDDR5.

— Производители могут выпускать видеокарты с разогнанным или наоборот пониженным режимом работы видеоядра. Из разогнанной видеокарты вы «выжимаете» всю мощь, но скорее всего будете мириться с повышенным уровнем шума и возможно более скором выходе из строя из-за высокого температурного режима работы. В «пониженной» видеокарте вы не используете весь ресурс видеоядра в полную силу, но зато можете пребывать в тишине и спокойствии.

— Техническое исполнение производителем системы охлаждения и компоновки в целом играет важную роль. Мне не нравятся видеокарты, полностью закрытые пластмассой с маленьким (40-60мм) кулером в конце. Я больше доверяю открытым платам, с массивным радиатором и большим кулером. Такие платы легко чистить от пыли.

— Видеокарта это часть общей системы, которая должна соответствовать по производительности остальным компонентам компьютера. Глупо брать дорогую видеокарту и ставить её на материнку с бюджетным чипсетом или процессором. И конечно же, блок питания должен быть достаточной мощности.

— И последнее. Лично я никогда не собирал компьютеры с двумя или тремя видеокартами. Как уже сказано в статье, прирост будет не в 2, а в лучшем случае в 1,5 раза. Считаю, что если хочется собрать мощный компьютер, то лучше поставить одну топовую видеокарту.

На этом всё, благодарю за внимание. Продавцам-консультантам передавайте привет!
Чем быстрее работает память — тем больше «бутылочное горлышко» между вычислительным блоком видеокарты и хранимыми на ней данными
Зарегистрируйтесь на Хабре , чтобы оставить комментарий