ua-hosting.company corporate blog
Computer hardware
CPU
Comments 42
-7
Отличные тесты с GTX 1080. Кто-то, чтобы не упираться в видеокарту, использует 1080ti/2080/2080ti, а кому-то хватает 1080 которая даже 2к не вытягивает.
0
Не понимаю сути вопроса. Какую ещё видеокарту нужно было поставить для 8-летнего процессора?

Сейчас ситуация с современными играми и с современными видеоускорителями пока что сохраняется примерно такой же: либо 4К при 60—100 кадрах в секунду, либо разрешение чуть ниже, но с высокой частотой обновления (120 Гц и выше). При этом если система на 4К выдаёт 30—60 кадров в секунду, то бутылочное горлышко — видеокарта. Производительность процессора проявляется на высоких частотах обновления — скажем, от 100 кадров в секунду. Известно, что для достижения высоких частот обновления нужен процессор с низкими задержками и хорошей вычислительной мощностью.

Поэтому и видеокарту нужно было подбирать такую, чтобы на 4К показать адекватный паритет с современными процессорами. Видеокарта нужна была такая, чтобы на 4К в заданном наборе игр не выдавала выше 60 кадров в секунду. Грубо говоря, 2600K просто не будет успевать посылать вызовы отрисовки для какой-нибудь 2080 Ti.

Эта статья, похоже, писалась для ответа на вопрос, что получится из 2600K и прочего «железа» не первой свежести. Если у кого-то есть деньги раскошелиться на новую 2080 Ti, то найдётся и на 9900K.
+1
Там рядом же сравнивается 9700k который просто упирается в 1080. Неужели этого не видно?
Процессоры нужно сравнивать так чтобы другие компоненты не могли стать бутылочным горлышком. Иначе это будут тесты не процессоров, а видеокарт или еще чего-то.

Посмотрите тесты Лары с rtx 2080 в 4к youtu.be/fq_84l6Cvl0 Видно что в 4к процессор может выдавать 50fps, а не как показано в статье, 30 fps.
0
Это бенчмарк 2600K, а не 9700K.

Это сравнение со староватой видеокартой, которую можно дёшево добыть в бэушном состоянии. Прямо как восьмилетний 2600K.
0
Если так то что в тесте делают 7700k и 9700k? В чем смысл их наличия в нем?
0
ну, тогда ж надо тестировать так, чтоб видеть максимальную разницу, то есть с новой мощной видеокартой.
в противном случае, можно тестировать на героях третьих и сделать вывод, что смысла апгрейда нет, можно дажеж даунгрейдиться — и этого за глаза хватит…
0
Сценарий теста адекватен — это неплохая видеокарта прошлого поколения, которую можно купить с рук. Как и сам процессор. Отобранные приложения тоже хорошо показывают, чего нужно ожидать от 2600K.
0
Тогда зачем сравнивать с 7700k и 9700k? Которые в данном тесте не показывают, что вы можете ожидать от них, а значит сравнение не корректно.
Или вообще тогда нужно было ставить 210. И по результатам работы с оной делать вывод, что апгрейд не нужен. Или апгрейд по вашему заключается исключительно в том, что стоит ли ставить на данный проц более новый видик?

Заявлено сравнение старой платформы с новой. А не то, какой максимум видик может раскрыть не хуже новых процов 2600К…
0
Поддерживаю. Это же не ноутбук, где сегодня даже процессор поменять уже проблема, а то и вовсе невозможно.
Это открытая(относительно буков) платформа. Где топовый процессор может соседствовать с древней видеокартой или наоборот. Позволяют средства купить топовую видяху, не смотря на то что ЦП будет «узким местом», почему нет. Если участвуют топовые компоненты, то для них не должно быть узких мест, как видеокарта в данном случае. Иначе тест не корректен и не позволяет оценить всю разницу между процессорами на разрешении 4к и выше.
0
да не столь уж узкий этот проц, на 4.0 — 4.2 GHz вполне вытянет даже RTX 2080.
Выше он уже просто греться начнёт как паровоз, и такты сбрасывать.
0
Маловато было, в половине тестов явно упёрлись в неё.
Либо её надо было погнать по полной, чтобы она не была узким местом, т.к. мы тестируем процы, либо поставить чтото пошустрее.
0

Ну не так уж она старовата, да и не дешева ни разу.
Вот 1066 дешёва имхо(т.к. стоит дешевле, чем в в момент выхода) ну может 1070 б.у. не дорогая. исхожу из цены сабж+мать=10к.р.

0
Вот теперь и свой собственный вопрос, не дающий покоя: нужно собрать бюджетную систему с нуля. Стоит ли брать Ryzen 5 2-го или третьего поколения на, скажем b450. Или плюнуть, и собрать все на 3770K на Z77? При том, что на ядро, насколько я вижу, особенно то и разницы нет.
Разве что Ryzen будет холоднее и тише. Прям хоть два собирай и сравнивай :)
+4
На 3770к имеет смысл собирать систему только в случае, если в наличии уже есть как минимум мп и по возможности память. Если с нуля и не с алиэкспресс, проще за примерно те же деньги райзен без пачки интеловских уязвимостей и не вкладываться в уже устаревшее железо. Эпоха 4c/8t с приходом 6+ ядер на десктоп быстро клонится к закату — не за горами время, когда для ПО и игр потребуется иметь 6-8 физических ядер для нормальной работы. У меня сейчас основной ПК e3-1230v2 на Z77, в случае серьёзной поломки, скажем, выхода из строя мп, буду смотреть в сторону AMD.
0
Можно при наличии нормальной мамки с Z77.

У 3770К в отличие от 2600К под крышкой уже жвачка. (у 2600К — припой) так что если под разгон — ну его нафиг.
Собрал бы на райзене.

Что и сделаю, если что случится с моим 2600K :)

0
да и не только под разгон — термопаста под крышкой вполне может деградировать… я с таким сталкивался (и на амд, и на интелах, правда — старых).
+1
Уже есть игры (я слышал про, по крайней мере, одну), которые просто неиграбельны, если в системе меньше 4 физических ядер (отчего у владельцев Core i3 шестого/седьмого поколений (2 ядра/4 потока) был мощный взрыв эмоций). С учётом того, что система обычно собирается не на пару лет, имеет смысл закладываться минимум на 6 ядер.
0
Уже есть игры (я слышал про, по крайней мере, одну), которые просто неиграбельны, если в системе меньше 4 физических ядер

Например?
0
4 ядра, все прелести заплаток от уязвимостей, ну и цена что-то на уровне рязани 2600?
а смысл?
0
то есть вы можете гарантировать, что во-первых, никто не придумает как использовать этот канал против домашних компов. во-вторых, что ос без них будут также тщательно тестироваться, как и ос с ними разработчиками, которые уверены будут при этом, что все юзеры сидят именно с этими заплатками и разрабатывать в дальнейшем будут именно с учетом этого, в том числе другие заплатки безопасности. или просто нужно сидеть без заплаток?
0

Во-первых, уже давно придумали. Скорости там, правда, не ахти, и на порядки они не вырастут, да и нейтрализовать те атаки проще более адекватными средствами, а не ковровыми бомбардировками. Если же вы все равно озабочены потенциальной вероятностью атак на вас, то вы скорее должны садиться писать свою ось, свой браузер и все остальное свое — вероятность дыр или бекдоров в имеющихся сильно выше вероятности что-то нехорошее с вами сделать через эту дыру.


Во-вторых, про Windows не знаю, а в случае линукса уверен. Там и сильно менее популярные вещи тестируют.

0
Во-первых, уже давно придумали.
Нет, придумали как эксплуатировать текущее. А что вот вообще нет вариантов связки с какой-то другой уязвимостью, которой бы не было без текущих или которая с ними реализуется проще?
Во-вторых, про Windows не знаю, а в случае линукса уверен. Там и сильно менее популярные вещи тестируют.
Ну то есть на 5% машин можно спать спокойно… ах нет, в том направлении куча именно серверов или околосеверных использований, где заплатки таки придется ставить? Причем и менее популярные вещи чем отключение старинных заплаток (через пару лет они этим именно и станут) для домашнего использования, причем в связке ещё с каким-нибудь прикладным софтом? Ну, если только лично вы и будете тестировать, как пользователь сего набора. История изменений приоритетов для того, чтоб на слабых компах линукс не так фризился (насколько помню сию проблему), потому что разрабы на своих крутых тачках проблемы не видели — я помню, да. Как показатель того, что под линукс все непопулярные вещи активно тестируются разработчиками
0
А что вот вообще нет вариантов связки с какой-то другой уязвимостью, которой бы не было без текущих или которая с ними реализуется проще?

Я их придумать не смог.


Конечно, никто никакой гарантии никогда не даст. Но лично я оцениваю матожидание потерь некоторого абстрактного профита от потерь в производительности выше, чем матожидание потерь того профита от какого-то взлома.


Ну то есть на 5% машин можно спать спокойно… ах нет, в том направлении куча именно серверов или околосеверных использований, где заплатки таки придется ставить?

Зачем? Их не нужно ставить, если вы исполняете только ваш код. Ни на серверах, ни на десктопах.


У меня есть сервер, где даже есть докер и виртуалки. Только виртуалки крутят сборку (CI всякое) моего собственного ПО. Зачем мне там заплатки?


История изменений приоритетов для того, чтоб на слабых компах линукс не так фризился (насколько помню сию проблему), потому что разрабы на своих крутых тачках проблемы не видели — я помню, да.

12309, что ли? Связи с мощностью машины там особо не было. Лично у меня УМВР всё время, что я пользовался линуксом за последние лет 15, на очень разном железе, от топового до PII-233.

+1
> вопрос, не дающий покоя: нужно собрать бюджетную систему с нуля

А вопрос точно именно так звучит? А то купить готовый комп б/у проще и дешевле.
0

Боюсь, что именно так. Потому что хочется ряд конкретных компонентов, а б/у комп зачастую имеет компромиссы. Или приходится ловить подходящие железки, а это дополнительное время

0
Зато целиковый б/у комп можно хотя бы потестировать перед покупкой, что он вообще работает. Ну и не надо за каждой железкой отдельно ехать, а это дополнительное время. Или вы собрались 3770к новый в магазине покупать?

Что за конкретные железки, кстати?
0
Или вы собрались 3770к новый в магазине покупать

Нет конечно :) Я скорее леплю отмазки. Тут главная проблема — поймать хорошую плату на Z77 и проц в своем городе. Т.к. живу не в Москве.
0
Ну не в Москве, конечно, это попроблематичнее будет. С другой стороны, по частям б/у собирать всё равно проблематичнее и чреватее. Разве что у вас есть брат-боксёр, чтобы в случае чего.

Посмотрел — на авито б/у 3770к стоит дороже, чем новый Ryzen 5. Тогда я вовсе не вижу никакого смысла брать 3770к б/у. Разве что надёжность, но, с одной стороны, я не слышал, чтобы на Ryzen жаловались (быть может, плохо слушал), а с другой стороны — б/у — это та ещё лотерея.

Вот ежели совсем бюджетный комп брать — тогда авито вне конкуренции. Я вот за последний год взял Core i3 2120 16 гб за 7000 и Core i3 4130 8 гб за 7500. И всё хорошо, только один жёсткий диск помер.
0
Посмотрел — на авито б/у 3770к стоит дороже, чем новый Ryzen 5.
на алиэкспрессе — тоже примерно столько же.
б/у — это та ещё лотерея.
да проц ещё туда-сюда, а вот мамки…
Тогда я вовсе не вижу никакого смысла брать 3770к б/у
У меня единственное предположение — доступ к куче дешевой или халявной оперативке. Это единственное, на чем тут можно съэкономить…
+1
Если вопрос б/у не останавливает, с али e3-1270v2 взять можно — по частоте то же самое. Или 1275v2, со встройкой GPU. Есть и более быстрые 1280v2 и 1290v2. Пользуюсь 1230v2 уже третий год, поменяв на него i5-2320 и доволен. Стоят в районе 5-6 тысяч рублей, вполне бюджетно. Не знаю, правда, все ли z77 поддерживают ксеоны v1 и v2 — у меня asus z77-a, там производителем была совместимость заявлена.
+1
Выравнивание в играх на 4к и выше происходит не потому что i7-2600K такой крутой, а потому что производительность упирается в видеокарту. И более мощные процессоры простаивают. Стоит её поменять на более мощную и результаты на высоких разрешениях будут другие.
Но это не отменяет того факта, что чисто для игр этот процессор еще вполне годен.
+1
Выше заминусовали мой коммент, люди этого не понимают.
2600k для новых тяжелых игр уже не хватает если считать играбельными 60fps+.
0
Существует миллион других причин для обновления… NVMe

Но NVMe к ним не относится и вообще не зависит от CPU. Его поддержку можно нативно добавить в большинство материнок с UEFI. Даже на древности Sandy/Ivy Bridge, даже не на Z чипсет.
0

Интел своими дырами дал amd шанс, которого они маркетингом никак не могли добиться: чтобы их рассматривали не как худшего игрока, а как равного или лучшего, у которого нет серьезных проблем.
Мне кажется, маркетинг amd может только одну шпильку теперь сделать: написать, что $10 с каждого своего проца будут жертвовать интелу, чтобы тот хотя бы старое позатыкал, а то перед людьми неудобно (даже если Интел и желает вид, что ему на это пофиг).

0
До сих пор не могу понять такой тест: миллиард делений с рандомными даблами значительно медленнее (до 10 раз) под Интел i7-3770 в 8-ми потоках, чем у пятого Райзена. Может быть, кто-то объяснит? Простой вроде цикл хоть на Java, хоть на C. В документации ссылок нет.
+1
Эм, 6 ядер/12 потоков, другое количество кеша процессора, большая пропускная способность памяти? Тут лучше смотреть на то же сравнение с третим райзеном)
0
Извините, разность такого рода понимаю, как включать/выключать ядра в БИОС тоже понимаю. Ппредлагаю прогнать такой бенчмарк всем, у кого есть последние райзены.
0
Так, давайте чётко что сделать надо, я завтра на работе стартану, как раз недавно пришлось обновлять системник и взяли рязань посмотреть.
0

Я из тестов вижу, что для 1920x1080@60 смысл в апгрейде i7-2600k на что-то другое всё ещё под большим вопросом.

Only those users with full accounts are able to leave comments. , please.