Как стать автором
Обновить

Рейтинг лучших CPU для игровых ПК в 2019 году

Время на прочтение8 мин
Количество просмотров76K
Всего голосов 33: ↑30 и ↓3+27
Комментарии194

Комментарии 194

Взял 9600KF буквально месяц назад:
дешево
игры оптимизированные под Intel — летают

Смотрел смотрел на рязани в той же ценовой, но они всё таки похуже будут.

ПС: брал для игр, планирую лет 5 прожить с этим. Для каких игр нужен нынче особ мощный проц — не в курсе что-то.
Например TotalWar: Warhammer 2 вполне себе может загрузить даже топовые процы в режиме лаборатории.
Через год выходит следующее поколение консолей с 8 ядрами на борту. Через два все новые игры будут выходить оптимизированными как раз под эти 8 ядер, а значит 6 ядерные процы начнут терять свою актуальность. И если действительно «для игр», а не «и на средних нормально», то 5 лет не протянет.
НЛО прилетело и опубликовало эту надпись здесь
Да, речь конечно же про 8 ядер 16 потоков, как у 3700X/3800X. Брать сейчас для игр что-то меньшее не имеет смысла т.к. быстро потеряет актуальность.
НЛО прилетело и опубликовало эту надпись здесь
4 ядра давно. И знаете что? Большинство игр использует 1 ядро целиком, и парочку в довесок. Всё.
Большинство старых игр. Современные в среднем умеют загружать 8 потоков, а некоторые уже смогли «отвязаться» от ограничений вообще и загружают все доступные.
Современные в среднем умеют загружать 8 потоков, а некоторые уже смогли «отвязаться» от ограничений вообще и загружают все доступные.

Это не так. В подавляющем большинстве игр просто нету задач, которые можно эффективно параллелить больше чем на пару ядер. По-этому шаьблон загрузки "1-2 ядра по максимуму, остальные по немногу" так и останется еще надолго стандартом.

Вы не правы, просто посмотрите тесты современных игр на процах 16+ ядер/потоков. Все игры на вулкане/дх12 загружают ядра равномерно, последний ассасин/ларка/батла тоже. «Старенький» Watchdogs 2 вообще рекордсмен по загрузке всех ядер. Из современных ААА-игр я знаю только одну которая ведет себя «по вашему» — это Фаркрай 5.
Тест 24 поточного e5 2670v3

Вы не правы, просто посмотрите тесты современных игр на процах 16+ ядер/потоков. Все игры на вулкане/дх12 загружают ядра равномерно

Вы же в курсе, что:


  1. ос сама перемещает постоянно потоки между ядрами, так что "равномерно нагрузить все ядра" можно и двумя-тремя потоками
  2. основную часть времени в игре каждое из ядер не выполняет какую-то полезную работу, а ждет память. От того, что память ждет одновременно два (три, четыре, десять) ядра (из-за чего они будут загружены), а не одно — память быстрее работать не станет, а значит, и производительность не повысится

Это все, собственно, подтверждается и тестами — процессоры с большим количеством ядер очень редко в каких играх дают ощутимо большую производительность.

И именно поэтому следующее поколение i5 снова получит HT? /irony

Обычный маркетинг (так же как какое-нибудь 4к). Надо же что-то продавать? Вот продают ненужную многоядерность.

НЛО прилетело и опубликовало эту надпись здесь

На больших — это на каких и на каком расстоянии предполагается находиться от этого экрана? Ну и да — 4к-то это по факту прошлый век, сейчас уже 8к! :)

НЛО прилетело и опубликовало эту надпись здесь
На 27 по мне не плохо, даже при моих -2,5 на оба глаза. На 24 классно выглядит тоже.

27 дюймов это 68.58см, с-но линейные размеры пикселя ~ 68.58 / n, угловое разрешение глаза 30-60см на 1км, т.е. 0.03-0.06см на 1м, чтобы достичь нижнего предела на 0.03 нужно n = 2286, а не 4000. Это при 100% зрении, а не при -2.5, да, при -2.5 разница между фуллхд и 4к (или 8к или 10000к) неразличима.

НЛО прилетело и опубликовало эту надпись здесь

Да, ну так смысл в том, что 4096 не нужно, надо всего лишь ~2300, и пиксели уже будут при 100% зрении неразличимы. Т.е. все, что больше 2300, не отличается визуально от 2300.

НЛО прилетело и опубликовало эту надпись здесь
Телек это конечно да. Но вот у меня практический опыт с проектором. Экран в 3 метрах от дивана. Картинка получается 90" по диагонали. А проектор только 720p. И с 3 метров всё выглядит абсолютно нормально. Да, думаю апгрейд до FullHD не помешает, чёткость картинки всё же должна стать получше. Но главное — сейчас тоже не плохо.
Говорят, что 4k имеет смысл на диагоналях от 65". Но моя практика говорит о том, что и на 90" пресловутое 4k не так чтобы уж совсем обязательно нужно.
НЛО прилетело и опубликовало эту надпись здесь
У проектора аппаратное сглаживание, всё же свет — это не пиксели.
Не очень понимаю чем пиксели проектора отличаются от пикселей телевизора и какое такое аппаратное сглаживание у проекторов. Аппаратное сглаживание — это как раз у любых устройств сверхвысокой чёткости. Там лесенок не видно потому что пиксель мелкий. На проекторе 720p с расстояния в метр пиксели размером с кулак — отлично видны ) Просто я обычно кино смотрю с дивана, метров с трёх, и при таком раскладе картинка воспринимается нормально.
Свет, излучаемый проектором, оказывается не точкой, а немного размывается, пока летит к стене — вот и сглаживание, обусловленное физикой.
Ну тогда можно и так: «Свет от пикселя телевизора пока летит до глазного дна оказывается не точкой, а немного размывается» ;))
Нет, нельзя. Свет от пикселя не просто размывается, он вообще излучается во все стороны, а в точку на сетчатке его собирает оптическая система глаза. И вот у глаза цель — собрать картинку как можно точнее, а у проектора — осветить экран не точнее, чем разрешение проектора.
Да, простые 4к, по факту, прошлый век: в последних спеках DisplayPort 2.0 добавили 16к мониторы и 4k@240hz.
А большие экраны — это панельки от 70" на расстоянии от 4 метров.

4 метра на 70 это как метр для 15
для такого экрана даже фуллхд — перебор, достаточно обычного хд.

Двухметровая панель с обычным хд — вот где перебор.
Там же будут пиксели размером с небольшого кота, нет?
Начнём с того, что 27" 4k с обычного расстояния монитора, это чуть-чуть не хватает, что бы единичный пиксель стал неразличим для глаза.
Так в чём маркетинг?
Это достаточно странное утверждение. Сижу на расстоянии 85 см от монитора 23,8" Full HD — 92 ppi. С одной стороны, картинка хуже, чем на старом iMac 21,5" Full HD с его стандартными 102 ppi.
Но всё же. Пикселы становятся различимы при разглядывании монитора с расстояния менее 50 см.
У монитора 27" 4k плотность пикселов более 160 ppi. Как их может «чуть-чуть не хватать, чтобы не различать глазами»?

А маркетинг вот в чём. Сравним монитор Full HD 21-21,5" с плотностью пикселей чуть боле 100 ppi и 4k 27" с 160 ppi. На последнем мы получим всё в 1,6 раза мельче, чем привыкли видеть. Хорошо, что в последних билдах винды существенно доработали моменты связанные с управлением размером шрифта, масштабированием и т.д. И то, регулярно всплывают вопросы про сложности с размером шрифтов и элементов интерфейса в отдельных программах.
Когда Apple перевела 21,5" с Full HD (102 ppi) на 4k (209 ppi) на уровне операционки было реализовано нормальное масштабирование x2 шрифтов и интерфейса. И то, интернет был завален вопросами о том, как теперь правильно готовить картинки для веба «под ретину». Это в целом пример того, как маркетинг отработал более-менее нормально, в отличие от мира PC.
Чтобы на винде не ловить приключений с масштабированием на 4k мониторе нужен монитор не меньше 32", а то и все 40". А для 24-27" с практической точки зрения достаточно WQHD разрешения.
Пользюсь 4к 27" без массштабирования и дико кайфую с такой возможности.
Пока вы можете различить 1 отдельный пиксель на экране с конкретного расстояния, можно считать, что разрешение ещё не превзошло возможности глаза.
Даже если взять 1 угловую минуту как разрешение глаза (я на 99% уверен, что на момент выбора 4к монитора находил информацию про 30 угловых секунд).
4к 27" имеет пиксель 0,155мм
То нужно быть дальше 53.2 см, что бы пиксель был меньше разрешения глаза. (Если же взять 30 угловых секунд, то и вовсе 106см)
p.s. Для упомянутых 32 расстояние будет 622/1244.
Для 43 так и вовсе 842.25/1684.
p.p.s. При сравнении на видео, оно всё сильно менее очевидно становится, не спорю. Но если подходить с формальной точки зрения, цифры получаются примерно такими.
p.p.s. Да, я специально рассматривал 1 пиксель, рандомно поставленный на экране с разных расстояний. Аналогично делал с 2 линиями толщиной в пиксель и 1 пикселем пустоты между ними. Хоть это уже и другая история.
Пока вы можете различить 1 отдельный пиксель на экране с конкретного расстояния, можно считать, что разрешение ещё не превзошло возможности глаза.

А вы ещё спрашиваете где тут маркетинг.
Есть ещё много других способов осложнить себе жизнь и облегчить кошелёк: G-Sync, 144 Hz, HDR. И монитор будет царский и системник под него придется подобающий собирать.
И всё таки причём маркетинг то?
Как только разрешение монитора превосходит человеческий глаз — всё, дальше смысла 0. И всё что пойдёт сверх, действительно станет маркетингом в чистом виде.
А до тех пор, вполне себе понятное желание хотя бы по разрешению, приблизить картинку к реальному миру.
Смотрим на реальный мир — статистику Steam по конфигурации ПК игроков. На всякий случай напомню, что 4k мониторы в широкой продаже уже 6 лет.

1920 x 1080 — 64.63%
2560 x 1080 — 1.08%
2560 x 1440 — 5.49%
3440 x 1440 — 0.64%
3840 x 2160 — 1.84%

Вот первый же нагугленный калькулятор про дистанцию stari.co/tv-monitor-viewing-distance-calculator

Там пишут про 60 угловых секунд и на основе этого показателя высчитывают Visual acuity distance.

В избыточности разрешения ничего плохого нет, если это реализовано так удобно и прозрачно для пользователя как в Mac OS и если железо тянет игрушки при таком разрешении. Пока что и не так удобно (на PC) и дорого. Поэтому агитация за 4k на небольших диагоналях — по большей части попытка натянуть сову на глобус.
НЛО прилетело и опубликовало эту надпись здесь
Рано или поздно добровольно-принудительный переход на 4k состоится — как это уже произошло на Маках и на телеках. Разница в том, что у пользователей маков: 1. нет выбора, 2. с ходу сделали хорошо, прозрачно, удобно.
Объективной необходимости в 4k на небольших диагоналях нет, а вот необходимость в статистике продаж — есть. Пока есть выбор, не совсем понятно зачем усложнять жизнь себе.

Помню своё разочарование при переходе от iPad mini к iPad mini Retina. На маленьком экране 7,9" разница оказалась не велика. Но зато я получил x2 время зарядки девайса. У — удобство.
Выше я приводил геймерскую статистику. А вот статистика по вебу: gs.statcounter.com/screen-resolution-stats/desktop/worldwide#monthly-200903-201912 Доля Full HD экранов в настоящее время составляет 20 %. Видно, что геймерская статистика существенно жирнее на фоне общей статистики. То есть в обычной жизни распространение навороченных мониторов существенно ниже.
4k в эту статистику не попали отдельной категорией. Максимум что есть — 2k с долей 0,65 %.
«на фуллшд люди переходили лет десять в массе» — это действительно так. Но вот что интересно. Ранее я упомянул, что 4k уже 6 лет в свободной продаже и есть у 1.84% геймеров. Full HD мониторы вышли на рынок в 2005 году по цене 1200-1550 USD. Добавим 6 лет и посмотрим в статистику — в 2011 году доля Full HD в вебе составляла чуть больше 3%. При этом помним, что геймерская статистика жирнее общей. Так вот, по представленным цифрам я вижу, что скорость проникновения Full HD примерно раза в 2-3 выше, чем сейчас у Ultra HD. Совпадение? Не думаю.

Кстати, по этой статистике я бы сделал ещё один вывод, который, как мне кажется, ни для кого сейчас не является секретом. С начала статистики в 2009 году виден взрывной рост популярности экранов 1366x768, который к настоящему моменту уже на спаде. Следствие широкого распространения недорогих ноутбуков. А теперь весь этот десктопный сегмент в стагнации, потому что все массового перешли на мобилки. Ещё меньше поводов обзаводиться 4k моником. Сейчас, наверное, это удел людей, занимающихся созданием контента.
НЛО прилетело и опубликовало эту надпись здесь
Дык против 4k телеков я ничего особо не имею против, тем более нам фактически не оставили выбора — топовый Full HD купить с каждым годом сложнее.
В этой же теме объяснили, как важно иметь 144, а лучше — 240 фпс при игре в шутеры, а конфигурация 4k@144Hz вообще не бюджетная вещь.
Конфигураций 4k@240hz совсем не существует на рынке — ни железа, ни мониторов.
PS интересно, как стим определяет многомониторную конфигурацию и сколько мониторов из неё идёт в зачет? Только основной?
Это можно посмотреть тут store.steampowered.com/hwsurvey
Многомониторные конфигурации учитываются в виде суммарного разрешения.
Самый популярный вариант: 3840 x 1080 — 74.48%
То есть 2 монитора Full HD. Правда из этой статистики не понятно у какого процента игроков есть мультимониторная конфигурация.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Начнём с того, что 27" 4k с обычного расстояния монитора, это чуть-чуть не хватает, что бы единичный пиксель стал неразличим для глаза.

Для неразличимости достаточно 2300 пикселей при 27''. Чего вам там не хватает "чуть-чуть не хватает" в 4к?


Да, я специально рассматривал 1 пиксель, рандомно поставленный на экране с разных расстояний.

Если пиксель достаточно яркий, то его будет видно даже если он в n раз меньше минимально различимого глазом.

Будет достаточно, если сидеть дальше 89см. Если 2300 было про горизонталь.
И я ещё раз повторяю, я про цифры на основе данных о человеческом глазе.
А не про то, что 90+% не различат на видео 1080 от 4к при достаточном битрейте. Если сравниваемое не будет стоять рядом.
Будет достаточно, если сидеть дальше 89см.

А зачем сидеть ближе?


И я ещё раз повторяю, я про цифры на основе данных о человеческом глазе.

Так и я про них же.

НЛО прилетело и опубликовало эту надпись здесь
Но не все ядра будут использоваться под игры (возможно). И точно там будут ниже частоты и существенно. Другое дело, что шестиядерники интел работают на пределе. Но в следующем году будет новое поколение и оно составит сильную конкуренцию АМД. Но мне нужен был апгрейд сейчас. Сидеть на 1156 было уже не возможно и я ушел на АМД. А брать проц без гипертрейдинга после сравнения производительности i5-750 и Xeon X3440 в Премьере не хотелось. То что на i5 я не мог монтировать, на Зеноне шло нормально.
У меня i5-750 на материнке АСУС почти 10-летней давности. Видяха игровая современная (ей пара-тройка лет всего) с 4 Гб на борту. Так вот:
— DOOM2016 летает на максималках — около 100 fps
— Старкрафт 2 на максималках не знаю сколько фпс, но летает.
— RAGE2 некие настройки выше среднего — работает шустро около 60 fps
— Вольфенштейн нью колоссус: вот с ним проблема. Он грузит все 4 ядра на 100%, проц перегревается (стоковый кулер до сих пор жив, пасту менял) и комп иногда вырубается. Но играется прекрасно на средних+.
— фильмы 4К (где разрешение порядка 4000 по горизонтали). У меня моник 1920, но если запустить такой фильм, то будет слайдшоу с пропаданиями звука и фризами. Я не знаю из-за чего. Есть 2 варианта: просто не тянет. не тянет т.к. надо большое изображение масштабировать под маленький монитор.

1) подари ему на стартости лет номальный кулер :)))
2) 4К видео и 1980p = изврат, нафиг не нужный в жизни :)
но — современным видеоплэерам пофиг на проц, если есть видеокарта с поддержкой hardware decoding...

Ну все примерно так и есть. Но к сожалению на платформе 1156, а тут даже зеон не поможет, не пойдет софт и игры с AVX. Не будет работать нормально последняя VMware. Так же будет очень сильно проседать FPS в ряде игры gears of war ultimate edition (ремейк на движке 4 части и gears of war 4) и в Steep. Возможно есть еще подобные игры. В любом случае в связи оптимизацией пот AVX платформа отжила свое. Так же если видеокарта тоже старенькая и не поддерживает HEVC. То при воспроизведении фильмов в этом кодеке будет хорошо нагружаться проц, а вот 4k в высоком битрейте вообще не потянет. Ryzen тянет, а все что есть на 1156 не тянет.

ржунимагу :)
Каждый год такое пишут, а потом i7 2600K @ 4GHz на своих 4 ядрышках вывозит 140 fps...


А всё просто.
Рендер-движок, он или однопоточный, или многопоточный. А многопоточному, в принципе, похер, сколько именно ядер в камне, главное что больше одного — система сама раскидает потоки по ядрам оптимальным образом. Лишь бы ядра были не совсем дохлые, как у того же атома.

Опять эти странные тесты в играх на железе с ценой >$2.500 (одна 2080 Ti дороже $1000) и в 1080p.
Покажите мне этих людей, которые сливают все деньги на системный блок и щурятся в 24" монитор с 1080p?
С другой стороны, в более высоких разрешениях разница практически незаметна и статью не написать.
Так смысл как раз в том чтобы упор был в процы, а не в видеокарту. Естественно если тестировать в 4к@240Hz, то у всех процов результат будет близким — узким местом будет видяха.
А где предупреждение «для вашей системы с 4к разница будет в пределах статистической погрешности, но кое-кто нам заплатил, поэтому вот тесты с преимуществом, которое можно увидеть глазом»
И к чему это предупреждение? Тестируется реальная производительность процов, публикуются объективные результаты. То что другое железо может стать узким местом в сборках к данному тесту никак не относится.
А где взять другое в нашем несовершенном мире? /irony
Лучшая и самая дорогая видеокарта в 4к доказывает, что все процессоры ~равны.
А эти песни на дудке, что в fullHD одни покажут мощные 140 фпс, а другие — жалкие 120 — маркетинг.
Или кто-то на глаз 120 от 140 фпс отличает?
А через год выйдет новая видяха которая без проблем переварит 4к и затык снова окажется в проце. И те кто послушал вас и купил дешевый(ведь они "~равны") будут вынуждены менять всю систему.
Или через год выйдет порт с приставок, которому нужно будет хотя бы 12 потоков, и те, кто послушал маркетологов и купил процессор для игр без HT будет вынужден менять платформу ( Intel наверняка постарается и выпустит LGA 1151 v4, такой же как прежние LGA 1151, но другой) /sarcasm
Там LGA1200 вроде на подходе, всё-таки повысили число выводов.
Больше питания = больше контактов, иначе процессор приварится, физика упряма.
Только слухи про ~$1200 за топовую материнку на LGA1200 несколько озадачивают.
Сколько помню тестов, обычно проц оказывается бутылочным горлышком только если это что-то проще i3 (ну иногда и сам i3 :) ) И то, зависит от жанра игр.
А i5 и выше хватает обычно на долго. Совсем плох он становится с выходом чего-то очень нового, чему нужна аппаратная поддержка новых инструкций/кодеков. И сколько я такого видел, если только уж совсем не повезёт взять проц на границе смены технологий, обычно хватает на 5-7 лет. За это время гораздо более ощутимым бутылочным горлышком всегда будет видеокарта.

Полно всяких разных более реальных тестов
3dnews.ru/914336/print
НЛО прилетело и опубликовало эту надпись здесь
У меня про гиперпень вообще ни слова. Общая мысль — i5 в очень большом количестве случаев достаточно и достаточно на долго. Если человек точно знает как и зачем он будет нагружать проц, то ему такие советы и размышления конечно ни к чему.
И так как это Хабр, то я естественно сделал оговорку про «зависит от жанра игр». У меня есть живой пример. Я поменял свой iMac mid 2010 с i3-540 3,06 ГГц по двум причинам:
1. Нет аппаратной поддержки Intel Quick Sync Video и, соответственно, невозможно воспроизводить и обрабатывать 4k без мучений. Это, кстати, хороший пример «не повезло на смене поколений», потому что QSV появился в процах 2011 года, а с полноценной поддержкой ultra hd — в 2012 году.
2. Видеокарта (не процессор!) не умела в Civilization 6.
Заменил в 2018 году на ПК с i5-8400 и GTX 1060.
Если бы не указанные выше пункты и невозможность апгрейда мака — не менял бы его ещё некоторое время, потому, что для обычного домашнего использования мощности было достаточно. А если бы это был ПК с возможность апгрейда комплектующих, то народ развлекается например так www.youtube.com/watch?v=A_E2FiGZeQQ
НЛО прилетело и опубликовало эту надпись здесь
Кстати, тут свежий интересный тест Рязани www.ixbt.com/3dv/16games-3ryzen7-upgrade.html
Правда новый процессор содержит столько же ядер и потоков как и старый, но в целом на 40 % шустрее в CPU-Z.
И выводы всё те же — видеокарта гораздо быстрее становится бутылочным горлышком. И чем выше разрешение, а тут мы много дискутировали про 4k, тем меньше ощущается выигрыш от более мощного процессора.

image

image
НЛО прилетело и опубликовало эту надпись здесь
Не, «за всю Одессу» говорить не могу, кому-то и не хватит. Например, кто-то категорически хочет стримить игры — там иной подход к подбору необходимой мощности процессора.
Просто я исхожу из того (и статистика Steam это подтверждает), что у среднестатистического покупателя компьютера не безграничный бюджет. Поэтому для очень многих людей разговоры про 4k систему с i9 и RTX 2080Ti — так и остаются разговорами.
По тестам и цене довольно быстро нащупывается «точка насыщения», где дальнейшее увеличение скорости требуется существенно больших денег.
Про 8/16 и 6/6 ещё вот что интересно. Если глянуть игровые тесты Ryzen 7 1700 и i5-8400, то интел окажется впереди. Хотя у него и ядер меньше и потоков. Значит не совсем правильно смотреть только на их количество при выборе процессора. Вот, например, унизительное сравнение R7 3700X с 8 ядрами и 16 потоками против 4 ядерного Core i3 9100F cpu.userbenchmark.com/Compare/Intel-Core-i3-9100F-vs-AMD-Ryzen-7-3700X/4054vs4043 Процы отличаются в цене в 4 раза.
Мысль у меня такая. При сборке игровой системы если мы выбираем i5-9400 за 13000 р. или i7-9700 за 22000 р., то эти «лишние» 9000 р. лучше потратить на видеокарту и взять не GTX 1660 Ti (на что осталось денег), а RTX 2060 Super. Или не RX 590, а RX 5700 XT. Для игровой системы толку будет больше.
НЛО прилетело и опубликовало эту надпись здесь
Статистика Стима говорит о прошлом, если что. Об уже собранных, зачастую очень давно, сборках.
Если это так, то это дополнительно показательно — значит люди не спешат апгрейдится, им хватает того, что есть. Но если не просто рассуждать в слух на заданную тему, а посмотреть саму статистику, то окажется, что она актуальна.

Physical CPUs
2 cpus — 22.24% -2.51%
4 cpus — 51.92% +0.61%
6 cpus — 18.99% +1.44%
8 cpus — 4.58% +0.49%
Шестиядерные системы — самый быстрорастущий сегмент. это Core i5 и Ryzen 5.
Предположу, что восьмиядерники растут скорее за счет AMD, а не Intel, хотя «в среднем по больнице» Intel стоит в 70 % игровых систем.
При этом самый массовый четырёхядерный сегмент продолжает расти и темп роста у него выше, чем у восьмиядерников.

Video Card Description
NVIDIA GeForce GTX 1060 14.64% +0.20%
NVIDIA GeForce GTX 1050 Ti 9.10% -0.56%
NVIDIA GeForce GTX 1050 5.18% -0.21%
NVIDIA GeForce GTX 1070 4.28% -0.07%
NVIDIA GeForce GTX 1080 2.64% +0.06%
NVIDIA GeForce GTX 960 2.53% +0.27%
NVIDIA GeForce GTX 970 2.36% -0.04%
NVIDIA GeForce GTX 750 Ti 2.10% -0.42%
NVIDIA GeForce RTX 2060 1.95% +0.41%
NVIDIA GeForce RTX 2070 1.60% +0.19%

NVIDIA GeForce GTX 1080 Ti 1.60% +0.04%
NVIDIA GeForce GTX 1660 Ti 1.56% +0.21%
AMD Radeon RX 580 1.54% 0.00%

Вот и современные карты.

это то, что первый там везде 93% оценивается, а второй от 43 до 82 максимум? Или про 19 место против 66?
Про тестирование — это то, что там намеряно FPS в играх www.youtube.com/watch?v=3EIt92rBNcI Видеокарта при этом 2060 Super — мощная. Но если бы мы говорили о стриминге (но честно — вообще не моя тема), то райзен конечно был бы гораздо лучше и предпочтительнее.

Интересно, а что не так с 7700k — кому и для чего его мало?
3dnews.ru/969891/print
Действительно, игровая производительность при выходе новых поколений процессоров масштабируется гораздо слабее, чем в приложениях. Если там можно было говорить о том, что за последние семь лет интеловские процессоры ускорились примерно вдвое, то с точки зрения игровых приложений Core i7-8700K всего лишь на 36 процентов быстрее, чем Sandy Bridge. А если сравнивать новейший Core i7 с каким-нибудь Haswell, то преимущество Core i7-8700K окажется всего лишь на уровне 11 процентов, несмотря на полуторакратное увеличение числа вычислительных ядер. Думается, игроки, не желающие обновлять свои LGA1155-системы, в чём-то правы. Такого прироста, как творческие работники – создатели контента, они не получат даже и близко.

Если же завести речь о разрешении 4K, где фокус нагрузки переносится на графический ускоритель, то осмысленность модернизации процессора кажется ещё более сомнительной. Фактически даже Core i7-2700K хватает для того, чтобы полностью раскрыть потенциал существующих в настоящее время флагманских графических ускорителей.
Получается, что 4K-игрокам – владельцам процессоров Core i7-4790K и более поздних – волноваться сейчас вообще не о чем. Пока на рынок не придёт новое поколение графических ускорителей, при игровой нагрузке в сверхвысоких разрешениях узким местом такие CPU не окажутся, а производительность полностью упирается в видеокарту. Апгрейд процессора может иметь смысл разве только для систем, оборудованных ретропроцессорами Sandy Bridge или Ivy Bridge, но даже и в этом случае прирост частоты кадров не превысит 6-9 процентов.

Уж если i7-4790K ещё держится, то не представляю как в одночасье шестиядерник превратиться в тыкву только от того, что на рынке появятся 6/12 системы.

Ок, TL;DR, что предлагаете-то? В игровом компе не обращать внимание на видеокарточку и брать четырёхпроцессорную 60 ядерную систему? ))
НЛО прилетело и опубликовало эту надпись здесь
Какая-то личная обида тут чувствуется, ну бывает, не серчайте так.

Того ай7 7700, которого в версии k за безумный прайс обещали, что хватит всем на долго
Когда кто кому успел что-то такое пообещать? При этом я не очень понимаю, как владельцы трёхлетнего процессора могут пострадать от нового сопоставимого i3 (который пока ещё не выпущен)? У них-то процессор по прежнему исправно и неплохо работает. Менять его прямо сейчас на что-то более мощное — личное дело каждого в зависимости от задач и бюджета. Так как статья про игры, то короткий ответ звучит просто — пока менять i7-7700k ни на что другое нет особого смысла.

3Dnews вообще страшную крамолу пишет:
Таким образом, сегодняшние процессоры Core i3 стали полноправными наследниками представителей серии Core i5 поколения Kaby Lake: в них имеется ровно тот же самый набор базовых возможностей, а тактовые частоты как минимум не хуже. И это значит, что Core i3-9350KF с ценой в $173 позволяет получить производительность даже лучше, чем обеспечивал Core i5-7600K, который стоил (и, кстати говоря, продолжает стоить, согласно официальному прайс-листу) $242.

Впрочем, согласно бытующему мнению, в формировании которого активное участие приняли в первую очередь поклонники AMD, четыре ядра сегодня годятся исключительно для офисных компьютеров, а современные игры якобы требуют от центрального процессора более развитой поддержки многопоточности. Откуда возникло такое суждение, догадаться нетрудно: процессоры AMD с ценой в диапазоне от $150 до $200 сегодня действительно могут предложить не только шесть, но и даже восемь вычислительных ядер с поддержкой SMT. Но это вовсе не делает четырёхъядерный Core i3-9350KF совершенно никчёмным и априори не заслуживающим внимания.
Я при этом несколько экранов назад уже писал, что лучше быть здоровым и богатым, чем бедным и больным и сейчас всё же лучше брать шестиядерный i5 или его аналог R5 3xxx — но это уже по вкусу.
Вы больше эмоционируете, чем приводите какую-то конкретику. Я вам уже накидал кучу тестов и сравнений, но вам всё время не нравится. Хотя от ваc я вижу в основном только один набор цифр — количество ядер и потоков.
Весь этот разговор вдвойне забавен потому, что в публикации, под которой мы сейчас флеймим, написаны совершенно шизофренические вещи.
Топ AnandTech там целиком из Райзенов. А в игровых тестах от PC Gamer везде лидируют Интелы, причем даже не топ сегмент, а середнячки i5. Но не смотря на то дальше идёт список бестселлеров Амазон, где весь топ забит Райзенами (в статье, кстати, неточность, у Амазона на 4 месте i5-9600K). Что вообще происходит? )

У меня на i5-8400 с цивилизацией никаких проблем нет. А R5 2600X говорят помедленнее будет:
image

НЛО прилетело и опубликовало эту надпись здесь
Действительно, в реальной жизни он будет укомплектован гораздо более слабой видеокартой по сравнению с приведённой в тесте выше RTX 2080 Ti. Иии… у меня опять простая мысль о том, что с определённого уровня процессор уже не так важен и важнее вложить деньги в видеокарту — почему вы игнорируете эту простую и очевидную мысль?

Вот померил на своём компе.
i5-8400, mb B360, 16 GB RAM DDR4-2666, GTX 1060 6GB
Civ 6 Gathering storm 1.0.0.341
DX 12, 1920*1080, Ultra, MSAA x4
Avg 50.98 FPS, 99-perc 37.3 FPS
AI test 41.43 с.

То есть судя по приведённым выше тестам переход на RTX 2080 Ti увеличит число кадров в пару раз.

Поискал с чем ещё можно сравнить. Нашел тут www.ixbt.com/3dv/games-2017-vram.html#n3
Сравнение с Ryzen 7 1700 на X370, 16 GB DDR4-3200, GTX 1060 6GB
Civ 6 просто
DX 12, 1920*1080, Ultra, MSAA x8
image
У них там в среднем получилось 63 FPS.
На моей конфигурации вышло 59.01 FPS. То есть 2 дополнительных ядра, 10 дополнительных потоков, 267 дополнительных МГц памяти дали выигрыш в 4 FPS. Гора родила мышь. Этот райзен на старте стоил $330, а i5-8400 отдавали за $200. Добавив эти лишние 130 баксов не к процу, а к видеокарте, можно было взять не GTX 1060, а GTX 1070 с существенно большим эффектом на производительность игр.

Среди компьютеров среднего ценового диапазона ($1000-1500) не вижу смысла срочно продавать комп на Intel 2-3 летней давности и немедленно менять его на Ryzen среднего сегмента. Выгоднее деньги потратить на апгрейд видеокарты. А ещё лучше — подождать выхода следующего поколения карт.
Вот если мы говорим про покупку сейчас «с нуля» — там да, современный Ryzen интересен. Но не потому, что у него потоков больше, а потому что AMD наконец-то подтянула производительность.
Пожалуй, вы правы: запустил последний gathering storm на 3700Х + Gf2070Super в 1440p и всеми настройками на максимум — 85 средних фпс и 59 мин.
Особенно с учётом того, что для civ не очень важны фпс.
Да и первое поколение ryzen, на мой взгляд, было не очень впечатляющим на старте.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Кстати, про синтетику — тот же userbenchmark внезапно поменял правила оценки: поднял вес скорости однопотока с 10% до 30%, а вес скорости в многопотоке снизил до 2%.
Небольшая манипуляция — и хоба! i3 идёт на равных с 3700X, о чём Intel немедленно написал в пресс-релизе.
Казалось бы, причём здесь маркетинговый бюджет?
НЛО прилетело и опубликовало эту надпись здесь
Или кто-то на глаз 120 от 140 фпс отличает?
Я отличаю, на мониторе в 144Гц. Понятно, что на мониторе в 60Гц разницы не будет.
О!
Возможно, вы мне поможете: G-sync или FreeSync?
А то, судя, по обзорам, кому больше занесли ( или наоборот, недонесли) — тот и ту технологию и хвалит / поливает помоями.
PS по фпс спорить не буду — видел профессионального верстальщика, который различал 120/160/200 гц на статичной картинке монитора.
У меня сейчас моник с фрисинком, жалоб нет. В обычном случае же как — на обычном™ мониторе ты либо сидишь со включенным vsync и инпут-лагом, либо сидишь с выключенным vsync, без инпут-лага, но с тирингом. FreeSync эту проблему решает, всинк отключен, тиринга нет. Ну как «нет», он проскакивает местами, но не то что бы очень часто и очень заметно (кадр рвётся меньше чем на 11 мс, это реально ничто).

G-Sync не пробовал, подозреваю что с ним будет лучше (т.к отдельный чип всё же который это обслуживает), но один порванный на ~5мс кадр условно раз в час меня полностью устраивает.

Ну а вообще — G-Sync же омерзительная проприетарщина, которая ещё и специальной железяки внутри монитора требует, и совместима только с nvidia. В то время как FreeSync требует только желания производителя монитора его поддерживать.

Монитор у меня ASUS VG279Q, брал специально для Apex Legends и Overwatch. Сингловые игры всё равно приходится лочить на 60 кадрах, т.к 1080Ti не вывозит игры на ultra в 1080p на 144 фпс. Даже на 80+ редко вывозит.

Я ошибаюсь или всё-таки при правильно работающем G-Sybc/FreeSync тиринга быть не должно совсем?

Не, когда он не работает это прям заметно, тиринг получается совершенно другой. Я пару раз косячил с настройкой когда лочил Kingdom Come Deliverance на 60. Вот то тиринг был, да, кадры в фарш, прям как в старые добрые :)
Я не понял что означает ваш ответ.

a) при правильно работающем FreeSync/G-Sync должен отсутствовать
или
b) при правильно работающем FreeSync/G-Sync допустим тиринг

«другой» тиринг или «не другой» — не важно.
При правильно работающем FreeSync тиринг местами проскакивает на моём сетапе, но он околонезаметный из-за высокой герцовки монитора.
FreeSync сейчас есть практически в любом современном мониторе с DisplayPort и высокой частотой, потому что это часть спецификации DP.
Посмотрите на мониторы G-Sync Compatible — это FreeSync-моники, которые Nvidia «с баркского плеча» разрешила запускать на своих картах после тестирования. Там и FreeSync есть, и с Nvidia совместимы, дает некоторую свободу для экспериментов.
Спасибо, вы меня успокоили: смотрел на цены мониторов с Gsync и офигевал с цен, в голове крутился мем с Друзем, который «да вы там все *роскомнадзор* что ли?!»
Открыл ролик.
Увидел надпись «Sponsored by NVIDIA».
Закрыл ролик.
Простите, а эти все, конечно же, предлагают купить RTX и GSync, иначе нипоиграть? /sarcasm
И как мне различить 120 от 140 фпс на глаз в Цивилизации и Stellaris?
«Не читал, но осуждаю» ¯\_(ツ)_/¯ Вопрос не стоял «как отличить в Цивилизации». Вопрос стоял «можно ли отличить». Можно. А то так можно спросить, как 140 FPS помогут Вам при просмотре фотографий.
Вы правы, я не обозначил сферу применения — в шутерах, видимо, можно.
Профессиональным игрокам в шутеры и иже с ними — видимо, нужно.
А остальным?
Я не профессиональный игрок в шутеры, но разница между 30, 60, 150 и 300 FPS колоссальна даже для меня, и это только на 60 Гц мониторе. Если переходить на 144 или 240, то разница еще более наглядна.
Специально для Вас вот ролик, после которого, собственно, NVidia к ним обратилась и проспонсировала расширенное исследование, которое я скинул выше. Он не спонсирован NVidia. Но он попроще.
www.youtube.com/watch?v=tV8P6T5tTYs

а подскажите, пожалуйста, хоть один монитор 4к@240Hz, недавно интересовался — ни одного не нашел на маркете.

Это вопрос к DrunkBear, он же за 4к выступает. Я же не вижу смысла больше чем в 1080@144 для игр, ну и диагонали соответственно 24.
Пиксели глаза режут. На 24 уже сильно хочется 1440р.
Поддержу
У меня 34' c 2560x1080 — пиксели глаза не режут, если включить AA.
АА люто мылит же
Ну это зависит от типа AA.
Их ещё не существует: поток 4k@240Hz без сжатия анонсировали только в DisplayPort 2.0 этим летом (заодно теперь поддерживается 16к мониторы, которых, соответственно, тоже нет), а железа, умеющего выдавать 240 ФПС в 4к даже и не анонсировали.
есть ощущение, что взяли сборку с топовой видяшкой, чтоб быть уверенными, что затык не в ней и раскрывать именно процессорные ресурсы в этих задачах
НЛО прилетело и опубликовало эту надпись здесь
Оперативка подразогнанная и так сейчас достаточно распространена. Топовая материнка нужна только для топового разгона, который иногда даёт прирост какой-либо мощи.
У АМД сейчас всё запутано, потому что AM4 выпущенный для поколения Zen 1 или Zen + без прошивки не берут высокие частоты и низкие тайминги если устанавливается процессор Zen 2.
Да и к тому же, комфортные частоты всё-равно останутся в пределах 2666-3200, дальше нет смысла подниматься, по крайне мере с нынешними архитектурами.
НЛО прилетело и опубликовало эту надпись здесь
Для АМД это не верно, и до 3600 на низких таймингах даёт профит.


Профит зачастую в районе погрешности. А если говорить о реальном приросте, то он появляется только тогда когда ЦП начинает захлёбываться.

стоп, а что, на младших чипсетах частоту оперативки можно ставить выше 2666? А в тестах они какую-нибудь 3600 на низких таймингах использовали, ибо чипест был с буковкой z? А в реальности так вообще на 2400 у людей будут стоять плашки?


Большинство людей сейчас получили кучу достаточно дешевой оперативной памяти с высокими частотами. Младшие модели материнок, по крайне мере AM4 сейчас тянут 3200 без проблем, но даже самые экономные сборщики скорее всего обойдут эти материнские платы, потому что нет банального м.2. Примерно тоже самое касается и интела, с их заявленными поддержками, которые без проблем игнорируются.
Материнские платы среднего и высшего эшелона хороши тем, что у них более стабильное и надёжное питание, что позволяет баловаться с разгоном. Да и глупо это в целом брать процы с префиксом K или X на систему без поддерживающего разгон чипсета. Человек в принципе обойдёт эти процы потому что они иногда бывают существенно дороже для экономящего покупателя.
Сам являюсь обладателем k версии, которую тестил на среднем сегменте (МСИ Томагафк) и знакомый подогнал Максимус. Как и ожидалось, более широкая возможность разгона, но толку от него зачастую мало, особенно когда в системе есть достаточная для комфортной игры видеокарта.
Кажется, разгонный потенциал сейчас нужен лишь для снижения напряжения в системе и улучшения звукового фона в квартире.
НЛО прилетело и опубликовало эту надпись здесь
Так ещё раз, вы подтверждаете, что core i5-9400K(F) не имеет смысл ставить не на Z чипсет? То бишь исключительно на мамки где-то от 7-7,5к и выше?
Тогда как рязань, особенно условные 65 ваттные, можно ставить на любые выше А320, чтоб получить все эти же плюшки? А от 7,5 — это под 3700 и выше, чтоб уже точно.


Ну и опять же мы упрёмся в термопакет и сомнительную производительность при высоких частотах. Просто циферки сами по себе ничего не значат. Высокие показатели частот, как и тайминги в бюджетной сборке лишь скомпенсируют некоторые недостачи. Не бывает чудесного прироста за счёт того что написал или не написал производитель на своей коробке.
У Рюзенов просто так же нет смысла ставить Х-совые процы на экономные материнки, а экономные процы даже при заявленной поддержке 3200 будут захлёбываться не раскрывая полученные возможности.
Z и X серии материнок всегда идут рука об руку. Отличия могут быть в районе 0,5-1.5k, а цены начинаются примерно с 6k.
НЛО прилетело и опубликовало эту надпись здесь
термопакет чего?


Системы в целом. Жара в системнике — не лучший друг экономиста. :)

Тесты проводятся чтобы понять возможности той или иной комплектующей с заявленными характеристиками. То что заявлено производителем, опять же не является истинной, потому что поддержку PCI4 так же пытались воткнуть в платы, которые для этого не предназначались, хотя имели возможность поддержки. В итоге, некоторые производители всё же воткнули поддержку недоразвитой фишки, вырезав из биоса поддержку рэйдов и еще чего по мелочи.
Понимаешь в чём смысл?
Брать 3700x и ставить его на дешевую материнку это не просто моветон. Более дорогая материнская плата позволит показать все возможности этого процессора. а общая температура системы будет достаточно низкой. Я видел сборки и пень+2080ti, которые якобы успешно работали, но с точки зрения баланса куда лучше было бы поставить простенький i7 и скомпоновать его с 2070.
Не просто так выпускаются широкие линейки комплектующих, которые примерно легко различимы по уровням.
К тому же, дело даже не в материнке. Идеальные условия это еще и охлад как самого проца, так и системного блока. А тут река достаточно широка чтобы предъявить за что угодно:
-Где тесты с водянкой
-Где тесты с системой охлаждения до 1k
-Где тесты кулера с прямым контактом трубок
-Где тесты с однокуллерными корпусами
и так далее и тому подобное.
Поэтому берётся то что необходимо для теста. Идеальные условия к которым ты, будучи пользователем, стремишься. Как пользователь ты можешь наплевать на всё это и собирать 3700х на материнке за 5k и куллером за двушку, но подобное будет смотреться комично, примерно как Тредриппер с 16 гб оперативы и будет так же отставать в производительности от идеальных условий.
Но опять же, это моя позиция, как человека, который собирает эти ПК уже не первый год. Каждому покупателю я говорю ровно то же самое: «Вы можете наплевать на то что предложено инженерами больших компаний, но придётся мириться с тем-то и тем-то, лучше поумерить свои желания и если денег нет — взять балансом, а не выкрутасами.»
Тут уже психология начинает играть роль: все знают, что консультанты не консультируют, а скидывают неликвид, поэтому всегда надежнее посмотреть историю в ютубе, там-то врать не будут, ага, и требовать ютубодичь с продавцов, медиков и строителей.
НЛО прилетело и опубликовало эту надпись здесь
Люди забывают, что кто девушке обзорщику платит — тот его и танцует или не думают об этом, поэтому средний консультант соберёт конфигурацию лучше, чем очередной обзорщик — обзорщик точно не скажет «партия какая-то битая пришла, будем возвращать, лучше возьмите аналог»
НЛО прилетело и опубликовало эту надпись здесь
Да это всё меркнет по сравнению с поставщиками первого эшелона на внутренний рынок страны. Там девчата и ребята вообще не суетятся со знаниями, просто отгружают на лярды, а когда падает более детальный вопрос — высылают те самые буклеты. Приходится шарится по загашникам в поисках банальной технической информации.
НЛО прилетело и опубликовало эту надпись здесь
пока звучит как развод людей на большие суммы.


От чего же, если человек хочет процессор с потенциалом разгона, то я ему и материнку предложу, которая этот потенциал раскроет, вне зависимости от того Интел это или АМД.
У Интела просто более четкие разграничения, они собственно и у АМД есть, потому 3700х трудно запустить на чём то, что меньше B450M Pro4, а уж разогнать на этой материнке уже будет практически невозможно.

И да, я всё так же жду тестов, показывающих, как происходит захлебывание процессоров амд на экономичных мамках при оперативке 3200 и выше.


Есть просто тесты, которые показывают влияние таймингов и частоты на игры, проведённые Этим Компьютером.
В чём смысл.
Если процессор является узким местом, тогда высокие частоты начинают себя показывать. Т.е. для очень бюджетной сборки, АМД будет неким победным вариантом, но тогда в этой сборке должна быть очень бюджетная видеокарта и несоизмеримые с возможностями сборки настройки графики в игре.
Почему для i5-9600k нужна Z материнка? Ну собственно потому что для 3600х желательным является выбор x570 чипсета, т.е. актуальность. Да, производитель говорит что можно выбрать побюджетней, но тогда не увидишь PCI4, у тебя будет малое количество Sata и PCI линий и почему бы тогда не выбрать обычный 3600 или 9400. В чём смысл брать процессор с разгонным потенциалом без материнки поддерживающей и упрощающей сие действие, а так же сохраняющей термопакет всей системы на приемлемом уровне?

Если покупатель приходит за бюджетом — он должен рассчитывать на этот бюджет, а не брать процессор выше собственной нормы и потребностей. Для видеоигр так вообще лучше накинуть лишние деньги на видеокарту.
НЛО прилетело и опубликовало эту надпись здесь
Я говорил «желательно» но не обязательно. Возможно АМД просто сломали старый рынок, но на самом деле ничего нового они не привнесли.
Моё мнение, сквозная поддержка это такой же бред как и чрезмерно частое обновление сокета. Когда у человека реально нет средств, он пытается крутится как может, тогда приходится идти на компромиссы, которые со временем ударят еще больше по карману.
Ну и ждать что когда-то там выйдет ддр5 и PCI5 тоже не стоит, потому что интегрироваться эти технологии нормально будут еще года 2, а нынешние поколения будут как и предыдущие еще лет 5 актуальны.
Я особо не парился с выбором собственного игрового компа (слава сине-зеленым). А вот с рабочей станцией пришлось попотеть, потому что собирал её на стыке Зен-поколений, а на ней еще 2 рейда подняты, поэтому метаний было много.
Короче, я понял о чём Вы, спасибо за дискуссию. Может что-то пересмотрю в своём взгляде.
НЛО прилетело и опубликовало эту надпись здесь
А вот мне интересно сравнение производительности процессоров при сжатии видео. У intel для этого есть Intel Quick Sync Video, а что есть у AMD и насколько расходятся показатели в этих задачах? Если кто-то натыкался на материал, прошу скинуть ссылку.
Есть вот такая штука en.wikipedia.org/wiki/Video_Coding_Engine
Хотя это скорее прямой конкурент Nvidia NVENC, а интеловский Quick Sync стоит где-то сбоку.
НЛО прилетело и опубликовало эту надпись здесь
У процессоров AMD нет аппаратного ускорения кодирования видео. С другой стороны, NVENC (в видеокартах NVIDIA) в любом случае лучше, и пользоваться QSV особого смысла нет, он даже не настраивается практически, для профессионального использования не годится.

У энкодеров "в железе" паршивое качество. Где-то на уровне very fast пресетов. А в обычном "софтовом" кодировании Zen2 уделывает intel, т.к. эти задачи хорошо паралелятся.

«паршивое качество» для конкретного пользователя — понятие очень относительное. У QSV по сравнению с программным кодированием, для меня есть только 1 недостаток — ощутимо больший размер файла. В остальном — сплошные плюсы благодаря высокой скорости.
Если не рассматривать вариант стриминга видео, то качество картинки/размер файла — как раз определяющий фактор.
Так диспатчер МКЛь или компилятора у вас в примере вызывает замедление кода?
И с каких пор Интел, вкладывая свои деньги в разработку математической библиотеки, должна обеспечивать вообще хоть какую то производительность на АМД? Как вы себе это видите?
В собственных же интересах — чтобы не навлечь гнева антимонопольщиков
Ну тогда в тех же самых интересах матбиблиотека от АМД должна работать не хуже МКЛь?
А такая библиотека есть?
А при чём тут антимонопольщики?

Чтобы эти интересы появилось AMD нужно сначала дорасти до монополии.

Ну это как если бы MS в своей винде умышленно отобрали аппаратное ускорение у всех браузеров кроме edge (вкладывая деньги в разработку, с чего бы им обеспечивать производительность других браузеров?), а потом гордо заявили, что их edge — самый быстрый.

Гугл подобным балуется со своими сервисами и хромом.

Игры — это та соломинка, за которую еще хватается Intel, пытаясь спасти продажи. В оптимизированных под многояд приложениях перевес Ryzen просто неприличный, и учитывая нежелание intel снижать цену, выбирать сейчас что-то кроме красных просто неразумно. Сомнения вызывает лишь рекомендация Ryzen 7 3800x — его преимущество над 3700x слишком незначительно, чтобы оправдать значительно большую цену и более сильный нагрев (с которым у райзенов и так не сказать, что все прекрасно)
НЛО прилетело и опубликовало эту надпись здесь
И брать его даже немного дешевле не стоит: греется сильнее, разгону не подлежит, производительность отличается на пару процентов.
НЛО прилетело и опубликовало эту надпись здесь
Ну модели без Х типа 3600/3700 можно «превратить» в старшие модели без особых проблем. Хоть рязани это и не нужно особо, гораздо важнее оперативу разогнать до 3600+ при вменяемых таймингах.
НЛО прилетело и опубликовало эту надпись здесь
Мой косяк, слишком много инфы по теме в итоге спутал.

Что же касается 3800Х вот есть неплохой обзор
НЛО прилетело и опубликовало эту надпись здесь
Привет. Есть вопрос: стоит ли мне обновлять 2700x до 3700x или более старших моделей? Если да, то менять надо будет только проц или и мать и память?
Цель — поигрульки на 144+ fps.
Мать ASUS PRIME X370-PRO, оперативка F4-3200C14D-32GTZ
Спасибо.
А видяха у вас какая и какое разрешение требуется при 144фпс?
Так то разница в производительности между процами заметна, но для игр в 1080@60 я бы точно менять не стал и дождался 4е поколение процов и ддр5.
1080p, 1080ti. Текущий сетап не вывозит 144 фпс практически никогда. В апексе только на самых минималках, но в него на минималках нельзя, там качество эффектов даёт игровое преимущество. А в овервотче у меня вообще на старте матча 180 и чем дольше идёт матч, тем ниже фпс, вплоть до <100 если катка прям длинная получилась.
IMO, погодите годик, а там уже будет выбор: и видеокарту можно будет обновить, и процессор следующего поколения выкатят.
Сейчас, сменив процессор, получите процентов 10-15 производительности — оно вам надо?
PS если интересно — стукнитесь в личку, могу запустить пару игр/тестов на 3700, посмотреть производительность.
Сейчас, сменив процессор, получите процентов 10-15 производительности — оно вам надо?

Так я потому и спрашиваю. Что если я сменю только проц? или если я сменю сразу и проц и мать? а если и проц и мать и память?
Например, ради 10-15% можно не заморачиваться. А ради 25-40 уже можно и попробовать, иногда то стабильного фреймрейта нехватает тех самых 30%, чтоб было прям тютелька в тютельку.
144 Hz 1600x900, все на минимум, 2 Gb бюджет на графон, i7-8700, GTX 1060 6 Gb, в среднем 165 FPS, так от 150 до 190, иногда 210, на 1080х1920 тоже проблем нет, хотя запускать надо на свежий ребут, если машина с аптаймом выше 5 суток, то иногда дропается до 120-130. Когда был монитор 60 Hz, выше 143 FPS игра не давала поднять, даже при команде fps_max 0.

Вообще в последнем сезоне в Орех подвезли оптимизации и стало комфортнее. Не знаю, что у вас там за проблемы с 1080 Ti, эти карточки еще и параллельный стриминг на 5000 kbps+высокие пресеты в 720p на NVENC вывезет и не поперхнется.

Но вообще да, если все «выкручивать», чтобы по максам, то Ореху нужен 2080 Ti для 200+ FPS
Со стримингом фпс вообще не проседает, потому я и грешу на проц, а не на видяху. NVENC решает.
А 2080ти не так что бы сильно мощнее 1080ти была, разве нет?

Ну и опять же, _средний_ фпс это далеко не показатель. Если у тебя в режиме «шарюсь по карте» 200 фпс, а в режиме файтов с тремя-четырьмя сквадами 90 фпс, то средний у тебя будет 150. Маркетологи довольны что могут сказать «у нас средний фпс 150», а ты в это время сосёшь жопу. В своём предедыдущем сообщении я именно этот показатель фпс и имел ввиду — «настоящий», а не маркетологический.

В замесах даже на 1060 после покупки 144 гц монитора редко падает ниже 144 ФПС, обычно 160. До 120 может падать где-нибудь в метрополисе, там с ФПС как и на черепе, есть проблемы. Говорю же, в последние 3 месяца в апексе все стало намного лучше. А вот в борде 3 с самой игрой проблемы, там даже на топ-конфиге просадки до 50 фпс.

Тогда оч странно. Хотя, ты же выше писал что 900p а не 1080. И всё на минимум.
В апексе есть такая штука, если у тебя эффекты на минимуме то при выстреле ты ничего не видишь из-за muzzle flash. А если выкрутить эффекты на максимум то дым и огонь при muzzle flash становятся полупрозрачными, становится видно цель. Это то, что я имел ввиду выше когда писал про «приемущество».

редко падает ниже 144 ФПС, обычно 160. До 120 может падать где-нибудь в метрополисе, там с ФПС как и на черепе, есть проблемы.

Ну это ведь жопа, такие просадки :(

Надо и мне попробовать на 900p сыграть :)
А с мылом как, не беспокоит? Я пробовал настраивать апекс на автодаунскейл (есть ключик в конфиге чтоб было как в тайтанфоле, если перфоманс низкий — тебе включают 720p и апскейл до 1080), и выглядит это ужасно.

Даунскейл помойка. Достаточно все выключить (в особенности сглаживание ttax или как оно). Fov 102-104, бюджет на текстуры 2 гига. Вспышки мешают только при стрельбе без прицела. Х2 бруйзер или х1-х2 решают проблемы со вспышками.

Не решают, вспышки непрозрачные при любом прицеле.
А без сглаживания там лесенки же, и на динамике они дико дизориентируют.

Киберспортивные составы Luminosity и navi поголовно играют на самых убитых конфигах с топовым железом. После пары дней игры с "лесенками" на хорошей графике уже играть невозможно. Отвлекает и ничего не видно.

Ну я не киберспортивный состав же :)) я просто хочу оптимальный экспириенс на своём железе за свои деньги.
А лесенки отвлекают именно своим типом рендера, т е картинка двигается (лесенки ререндерятся на границах объектов), что мой не киберкотлетный глаз постоянно отвлекает.

Контур персонажей на Лоу графике намного ярче. Советую попробовать, противников видно метров с 500, не меньше.

специально поискал на youtube сравнение свежее
effects low vs high


нет разницы.

Я тоже как, не посмотрю TSM_diego \ NGR_dizzy или еще кого топовых — вспышки по минимуму, покрутил сам качество эффектов — разницы не вижу на своем сетапе.
Щас опять на youtube месячное сравнение нашел — все так и осталось, другие люди снимают, что нет разницы в видео, так же как и я на своем сетапе не вижу разницу. Как у стримеров нет вспышек — непонятно.
2080ti все же значительно мощнее 1080ti.
НЛО прилетело и опубликовало эту надпись здесь

Это очень странно… У меня в OW на средних настройках на i7 6700k+1080ti стабильно выдает 144fps (стоит лок). Если и случаются просадки, то только в случае если в это время венда решит обновиться и вгрузить дисковую подсистему (точнее, были просадки когда был SATA SSD, сейчас NVMe стоит).
А apex да, проц загружает на 100%...

Matlab нужен какой-то свежий, проверять не самый новый и на процессоре Athlon II X3 445 смысла нет? В качестве альтернативы будет идти Core i5-4670, который конечно круче.
В обоих случаях проверял бы на кодах, включающих в себя FFT.
Ой да ладно, топ последних лет всё ещё остается на LGA2011. Стоят копейки (матери, процы и память даром).
Сейчас в топ вырвутся 2011v3 — умельцы наконец смогли разблочить на них полный турбобуст, осталось только разгон памяти победить.
А можно про это немного подробнее?
Если хочется следить за процессом «исследования» то вам на overclockers
Если нужно уже рабочее решение, то сюда
Ну а если просто вкратце узнать что да как, то можно глянуть
видео

Я неоднократно попадаю на статьи про критические уязвимости в китайских ip-камерах, гаджетах и различных устройствах. Согласен, что у известных мировых брендов тоже имеются проблемы, но я редко встречаю статью про уязвимости в материнских платах от ASUS, Gigabyte и других компаний. Например, видеокарты на али я не рискнул бы покупать, так как есть определённый шанс нарваться на обман в виде перепрошитых более слабых устройствах.
Подскажите, есть ли информация по безопасности использования данных материнских плат? О возможных намеренных закладках или уязвимостях, оставленных по халатности? И насколько стабильно эти платы работают?
Просто почитайте темы на оверклокерах(тут, ну и статьи на xeon-e5450.ru и по отзывам сможете выбрать вполне надежную плату за разумные деньги. Да поначалу когда китайцы начинали их клепать были разные болячки, но их очень быстро исправляли в свежих ревизиях. Сейчас же всякие хуананы/жинши/плексхд на уровне брендов второго эшелона типа Asrock/Biostar — тоесть вполне себе юзабельные.
V3 стоит существенно дороже.
После того как взлетели цены на оптимальные 1620/1650/2667/2689 процы уже не особо дороже, матери пока да, будут подороже, но зато уже на ддр4. Ну и в любом случае 200 баксов за 12 ядерный/24поточный проц+мать смешные деньги.
Речь про зионы с Али?
да
Опрос не слишком достоверный — он про фантазии — «какой бы я купил». Я хотел бы попробовать современный AMD. Более правильно — какой я покупал последний раз или недавно. На это вопрос ответ — только Intel в последние 7 лет как в десктопах, так и в ноутах.
И еще такой момент — i5 третьего поколения до сих пор актуален. Только видюхи мощнее ставь.
НЛО прилетело и опубликовало эту надпись здесь
У меня недавно был core i5 четвертого поколения и 4 ядра современным играм уже маловато даже с мощной видюхой — загружают на 100% все ядра.
Процессор какого производителя вы купили бы для домашнего ПК?

Купил 3700X, без "бы". Восемь лет не менял процессор, не удержался.

Если она видит процессор Intel., то специально переключается на самый медленный набор инструкций SSE1, независимо от того, какие более эффективные наборы инструкций поддерживает процессор (AVX2 и др.)

Ну а что, история с RDRAND показала, что CPUID доверять не стоит. Вполне разумное решение.

Ряженку 3600х можно было и не рассматривать, разница с обычным 3600 непринципиальна
p.s обновил недавно 1600х на 3600

Давным-давно было такое видео «как горят процессоры» от thg где сравнивалось что произойдет если снять радиатор на работающей системе с CPU Intel и с CPU AMD. Тогда это было одним из мотиваторов в пользу Intel.
Но похоже что AMD усвоили уроки.
Это, наверное, ещё лет двадцать вспоминать будут.
Вот это видео – www.youtube.com/watch?v=Xf0VuRG7MN4

Да, видимо это будет в головах вечно.
НЛО прилетело и опубликовало эту надпись здесь

Лет 10 если не больше байка не актуальна.
АМ3+ одни из самых холодных и стабильных, да с изьянами, но для типовой домашней работы достаточно. Ряженка чуть-чуть потеплее. Обычного вентилятора достаточно.

Спасибо за материал. С удовольствием бы почитал что-то похожее, но про мобильные версии…
В январе обновил ПК наконец-то, вместо древнего i5 650 поставил Ryzen 5 2600. Отличный камень, прохладный, после двуядерного древнего i5 вообще космолет. Видео и так всю жизнь от красных было, теперь и на процессоры перешел.
А заменить проц не хотелось? Копеечный, но при этом мощный апгрейд.
Было бы на что, Интел уже в следующем поколении поменял сокет.
А так поменял мать, проц, NVMe SSD и оперативу (16Гб ДДР4 3200МГц), а как цены приупали еще 16Гб такой же памяти докупил. В результате в ближайшие годы можно спокойно сидеть.
на с1156 есть 4 ядра.
против 2х разница более чем заметная.
Но если есть финансы на райзен то лучше так — всерьез и надолго!
В этом году хотел собрать новый комп на рязани (захотелось поиграть, а ноут для этого не подходит). Достал старый системник из закромов (покупался 9 лет назад), думаю распродам за копейки и соберу свеженький. Случайно увидел что ценники для апгрейда этого системника просто смех ну и заказал для прикола компоненты с алика (оператива и xeon x5650). Сразу купил видяху RX590 для нового системника. И…

В выходные закончил играть в Star Wars Jedi: Fallen Order. Узким местом оказалась видяха (жутко жалею что не купил что нибудь за 30к) — загружена на 100%.
Проц равномерно все 12 потоков по ~30%, температура 50°С. Настройки в максимум, FHD, FPS 60+.
Думаю подожду пока с заменой мамки и проца.
Жаль только загрузка с nvme через костыль :(

Быстро, дёшево, без бубна — можно выбрать, в лучшем случае, 2.
А вот и еще одна абсолютно непредвзятая статья про сравнение процессоров.
Подкорректировал табличку, не благодарите:
Спойлер
Топовый игровой ПК Intel Core i9-9900KS $599 AMD Ryzen 9 3950X $749
Игровая машина за $1500 Intel Core i7-9700K $369 AMD Ryzen 7 3800X $355
Игровая машина за $1000 Intel Core i5-9600K $200 AMD Ryzen 5 3600 $190
Игровая машина за $700 AMD Ryzen 5 2600 $120 Intel Core i3-8100 $130
Игровая машина за $500 AMD Ryzen 3 3400G $130 - -
Игровой минимум за $300 AMD Athlon 3000G $49 - -

Мой хунан двухпроцессорный собранный в прошлом году на двух E5-2680v2 что дает 20 ядер и 40 потоков. До сих пор 9айку разрывает в синтетике. Вместе с 64 Гб памяти и 2 куллерами это чудо обошлось мне дешевле 700 баксов при условии что ящик под систему и видеокарта у меня уже были. видяха 1080ti два монитора 24" 1080. Есть косяки — для меня не существенные. Сон, вейкон лан не пашет. Ну и частоты памяти уже печальные можно сказать. Для рендера в трехмерных пакетах и симуляции вобще бомба. Игры — еще ни одной не было что не тянула спокойно на максималках, кстати бред про то что игры не могут в многоядерность. Это если что-то из ранней одноядерной эпохи запускать то может быть, а так то очень хорошо все используется. Да гудит как самолет в процессе конечно:)) но я не для игр брал.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий