Как стать автором
Обновить

Комментарии 74

Хотелось бы видеть более серьезный тест IO, желательно на жирной базе, с использованием SSD или довольно быстрой дисковой полки.
Подскажите, есть ли уже модели/ревизии десктопных процессоров Core i7, где эти уязвимости пофикшены без потери производительности? А то назрел апгрейд домашнего компа. Уже полгода жду…
Нет таких.
даже в роадмапах?
Whiskey lake будет иметь часть защит на уровне железа.
и новые дыры
НЛО прилетело и опубликовало эту надпись здесь
виски вроде как только мобильные будут
Есть, но когда будет, не известно (много проблем с техпроцессом, уже должны были 10нм освоить — фактически ещё не получается), и по обещаниям, наконец-то новая архитектура (текущая по факту 10 лет капитально не перетряхивалась и лет 5 — вообще никаких изменений, новую делает автор феномов и рейзнов). Можно только АМД предложить, 2700х весьма и весьма хороши, в многопоточке быстрее, чем десктопные и7, в однопотоке — примерно такие же (зависит, в частности, от памяти — на АМД очень большой прирост от оной). Большей части уязвимости в них нет (поэтому и пенальти сильно меньше) — Epyc это фактически 4 кристалла рейзна 1800х на одной подложке, соединённые шиной, 4-процессорная система в одном сокете и 8-процессорная — в двух.
Сколько не видел тестов, 2700x проигрывает даже i5-8400. Как может быть быстрее 4ггц ядро ядра 5 ггц. Причем проигрывает до 20%.
Вы верно шутите, потому что Ryzen 7 второй генерации, почти не отстает от i7 8700K, спокойно обгоняя i5.Правда и стоит он теперь как i7.
Не шучу. Легко это понять тестируя игры. Первый попавшийся обзор.
Во всех играх (с небольшими исключенями) ryzen загружен на 20-30% и выдает условные 100 fps, в то время как 8700k загружен на 40-60%, выдавая 120-130 кадров.
Мало того, для ryzen нужна очень хорошая память.

Повторюсь, речь идет про производительность на ядро. И по моему мнению, это более важнее чем общая производительность. Мне нравится как в обзорах постоянно записывают в плюсы большие возможности рендеринга и самое главное — говорят так будто каждый второй включает компьютер и сразу запускает какой-то рендер.
По факту, даже если ядро интела медлнее ядра амд, интел решает за счет частоты и это факт. А апеллировать к малому количеству ядер у интела уже нельзя потому что 6 ядер.
144Гц монитор тоже далеко не у каждого второго.
У меня 165, например. Но что это меняет?

Объясняю.
1. Количество кадров снижается на всех разрешениях. В абсолютном количестве на малых разрешениях — сильнее. Вполне может быть что вместо комфортных 60 получится 55.
2. Мне показалось что вы думаете что 120 кадров на 60гц мониторе не надо? Нет, как раз надо и очень даже: больший запас можно оставить на v-sync (садит минимум на 10%) или fast-sync (вообще требует раза в два больше кадров, такая концепция); из-за видимой разницы в следствии неодинаковой скорости отрисовки кадра (буквально при 60 кадрах задержка в пол кадра будет очень видна, при 120 — нет).

Надеюсь, расписал понятно.
Зачем рисовать больше кадров, чтобы часть из них «оставить на v-sync»??? Когда вместо рисования можно просто «поспать» ровно столько же времени сколько рисуется еще один кадр… Я тут чуть ладонью лоб не пробил… v-sync он на то и существует, чтобы рисовать столько же кадров, сколько умеет показывать отображающее устройство, читай монитор.
Вы ведь не серьезно, правда? V-sync значительно увеличивает задержку ввода. Геймеры часто готовы получить картинку с разрывами в обмен на более быструю реакцию. Я никогда и нигде, кроме каких-нибудь карточных игр, не включаю vsync именно по этой причине — управление начинает «плыть».
Потрудитесь объяснить с технической точки зрения каким образом «v-sync значительно увеличивает задержку ввода». Ну то есть имеется некая sleep(10ms) после рисования очередного кадра, во время которой по прежнему обрабатывается ввод и вывод и вообще всё что можно, но только не рисуется картинка. Каким образом sleep влияет на задержку ввода?
Игра получила ввод. Нарисовала с учетом этого ввода кадр. Ждет всинка 10 мс. Итог — юзер видит результат своего ввода на 10 мс позже. Ввод может обрабатываться в эти 10 мс сколько угодно, но юзер этого не почувствует никак вплоть до следующего кадра. Если видеокарта выдает 250фпс на 60 Гц мониторе, то в момент, когда монитор начнет отрисовывать последний кадр, этот кадр будет содержать гораздо более актуальный ввод, нежели при случае с 60 фпс при 60 Гц мониторе.
Иными словами, при 60Гц мониторе, с включенным всинком вы получаете переменную 0-16мс задержку ввода (в зависимости от того, когда кадр был нарисован относительно синхронизации монитора). В то же время, при стабильных 250 FPS на 60 Гц мониторе вы получаете задержку в стабильные 4 мс.
Хорошо, у нас есть заранее неправильно спроектированная игра с SDL-like вводом, это когда основной цикл игры выглядит так:
1. информация о вводе
2. отрисовка кадра и sleep
3. goto 1
При всем при этом отрисовка кадра игры синхронизируется не по sleep а по неким внутренним счетчикам, ну то есть на сколько градусов надо повернуть скажем башню, за кадр (важно). При этом каждый кадр с синхронизацией остается актуальный для каждого ввода.
Теперь тоже самое без синхронизации, имеется внутренний счетчик времени, кадров рисуется до одурения много и опросов ввода так же много, но актуальных кадров (которые мы видим на мониторе) ровно столько же, кажем 60, т.к. монитор больше не умеет, и угол поворота башни будет ровно таким же как без синхронизации. Просто в одном случае мы спали, в другом были заняты рисованием «невидимого кадра» от «ненужного» ввода. Так и в чем разница? Ну вводов больше, кадров больше, актуальных кадров и актуальных вводов ровно столько же.
Грубо говоря, если игра выдает 240 кадров и 240 раз в секунду опрашивает клавиатуру/мышь. То на экране то мы видим только 60 из этих кадров, это 1 из 4х кадров и 1 из 4х опросов устройств ввода, притом, что этот кадр абсолютно такой же как и кадр нарисованный с синхронизацией. И башня повернута на столько же градусов. Ну я не спорю могут быть какие-то погрешности, но не такие о которых вы говорите. Сам монитор так же может давать значительную задержку при отрисовке им кадра, как и видеокарта на выходе, но это уже железный вопрос, а не софтовый. И ВК не будет пихать в монитор 240 кадров, это будут все те же 60 кадров. Ни стандартные HDMI ни DP не способны передавать 240 кадров/сек, ни FHD, ни особенно 4k.
> Грубо говоря, если игра выдает 240 кадров и 240 раз в секунду опрашивает клавиатуру/мышь. То на экране то мы видим только 60 из этих кадров, это 1 из 4х кадров и 1 из 4х опросов устройств ввода

Совершенно верно. Экран не нарисует в итоге больше 60 кадров, так что 180 кадров и 180 опросов ввода пропадут впустую. Я с этим не спорил. Я говорю, что без всинка тот ввод, результат которого все-таки «попадет» на экран, будет более актуален.

Давайте рассмотрим ситуацию с всинком (60 фпс) и без (240 фпс) на 60 Гц мониторе. За t=0 возьмем время момент отрисовки последнего кадра.

t=-4ms
Всинк — юзер двинул мышкой вверх, обновили ввод,
нарисовали кадр с учетом того, где камера при таком вводе должна оказаться через 16 мс.
Без всинка — юзер двинул мышкой вверх, обновили ввод, нарисовали кадр с учетом того, где камера при таком вводе должна оказаться через 4 мс.
t=0ms
Всинк — монитор вывел кадр. Ждем 16 мс…
Без всинка — монитор вывел кадр.
t=4ms
Без всинка — обновили ввод, ничего не изменилось, нарисовали кадр.
t=8ms
Без всинка — обновили ввод, ничего не изменилось, нарисовали кадр.
t=12ms
Без всинка — юзер дернул влево, обновили ввод, отрисовали кадр с учетом поворота влево.
t=16мс
Всинк — на экран выведен кадр с учетом только ввода вверх, ввод влево никак не отражен.
Без всинка — на экран выведен кадр с учетом ввода за последние 12 мс, и вверх, и влево.

Неважно, сколько кадров/сек передает монитор, ввод на момент вывода картинки будет более актуален, если игра рисует больше кадров. Но конечно, еще лучше, если монитор способен физически выводить 120+ Гц.

И я не понимаю, почему вы так яростно теоретизируете — это не гипотетическая проблема, которую нельзя пощупать, достаточно включить в любой игре всинк. Не будете ведь убеждать, что это эффект по типу плацебо?
> Экран не нарисует в итоге больше 60 кадров, так что 180 кадров и 180 опросов ввода пропадут впустую.
Уточнение, только 180 кадров пропадут, так как не будут выведены на экран. Ввод не пропадет.
И да. По вашему «неправильному» циклу работает подавляющее большинство игр.
Я никогда и нигде, кроме каких-нибудь карточных игр, не включаю vsync

Я вам советую попробовать free-sync или g-sync. Мой новый монитор как раз с g-sync и теперь везде выключаю v-sync. По итогу:
1. снижается нагрузка на видеокарту;
2. уменьшается, несколько это возможно, задержка;
3. картинка так же без разрывов.

Только достичь пока где-либо 165+ сложно потому что 970 слабовата для uwhd.
Буквально вчера приехал монитор с G-Sync @ 165 Hz, так что да, поддерживаю :) Моя 1060 тоже слабовата, но даже мышиный курсор теперь плааавный, кайф
Asus, угадал? Надеюсь, брали с ips.

Скоро выход новых 20** карт и 10** должны стать дешевле. Уже становятся, собственно.
AOC AGON AG271QG — намного менее «геймерский» дизайн, плюс еще и дешевле заметно. IPS, конечно.
К сожалению, апгрейд видеокарты у меня возможен вместе со всем ноутбуком %)
Не знаю, разница между ними процентов 15. Но оба вполне достойные.
Для меня конечно решает отличная регулировка высоты. Собственно, предыдущий PB278Q тоже был с ней :)
15% для вас не «заметно дешевле»? :) С регуляцией высоту у AG271QG все хорошо, разве что хотелось бы возможность еще чуть ниже опускать.
Сейчас со скидкой разница 10%. Без скидки примерно одинаково.
Заметно дешевле это все же когда 1080ti стоила 900+, а сейчас уже есть за 650.
Возможно, у Вас так. В моем случае получалось минимум на $150 дешевле чем конкуренты.
Но, кстати, G-Sync вносит свою задержку — около 2мс.
Тут можно вспомнить задержку восприятия и все такое. Может кто и замечает такие малые задержки, но обычный человек вряд ли.
Дык ведь оно идет в дополнение к задержке восприятия. 4 мс задержка самого монитора, 2 мс задержка G-Sync, еще эдак 8 задержка ввода, etc… В сумме получается достаточно заметно.
При жестких требованиях для игр вроде кс го в любом случае берутся быстрые tn-мониторы.

Так-то процент шутеров, наверное, не более 10%. В них можно и потерпеть если что, при этом наслаждаться в 90% других игр. Все же не понимаю этого требования к задержке.
НЛО прилетело и опубликовало эту надпись здесь
Выше уже сказали же, что еще от памяти зависит. И что мы видим в тесте?
у i7 память 2х8 Patriot Viper 4 PV416G373C7K @ 3733 МГц (XMP)
а у ряженки 2х16 G.Skill Trident Z @3200 МГц (14-14-14-14-28)

Во всех играх (с небольшими исключенями) ryzen загружен на 20-30% и выдает условные 100 fps, в то время как 8700k загружен на 40-60%, выдавая 120-130 кадров.

А это в потоки упирается. т.е. исопльзуется одинаковое количество, а загруженность разная, так как ряженка умеет больше.
Вот есть наглядный тест правда i5/2600x, для меня там разница в районе погрешности, и разница больше от движка зависит (может оптимизации какие компилятором под процы?).
Ну и везду форсируемый «плюс» воткну: у амд сокеты реже меняются, а так же под крышкой не термопаста.
Ни к чему не призываю, выводы каждому свои :)
Заголовок спойлера

Не обратил внимание на память, да. Как правило, сколько не видел тестов — везде одинаковая ситуация.
И вот вы приводите пример с 8600k с 2700x. Тестируется более слабая модель с самой сильной, но мало того, еще и со вторым поколением.

Я не к тому что кто-то однозначно круче кого-то. Важна объективность. У интела нет припоя, сокеты слишком часто меняются. У амд процессоры почти всегда слабее в однопотоке и сильнее в многопотоке.
Для себя все же выбрал интел — мне очень важна скорость одного ядра. А что до многоядерности — не стримлю и не рендерю — мне хватило бы и 4 ядер, 2 дополнительных скорее приятная добавка.
Еще хочу заметить что по прикидкам в комментах на профильных ресурсах, амд получаются если не дороже, то и не дешевле сборки с интелом. Все из-за недешевых новых процессоров и очень дорогой памяти.
2600x там, а не 2700х. Так что после второго абзаца можно было ничего и не писать.
Хорошо, но ничего не меняется.

Есть же тесты.
8700k 2700x core perfomance
раз
два

8600k 2600x core perfomance
раз
два

В обоих случаях получается разница в ~20%.
Скажите если ошибаюсь.
Для десктопных процессоров материнки для LGA 1151 намного дороже, чем AM4 в сравнимых категориях. (по крайней мере весной так было)
И что мы видим в тесте?
От памяти в играх сильно зависит только Ryzen, если мне не изменяет память. Потому что у него на частоту памяти завязана шина, по которой общаются ядра между собой и с периферией. C Intel выигрыш будет ощутим в тестах и специализированных задачах, потому что частота памяти кроме самой памяти ни на что не влияет.
> Легко это понять тестируя игры.

Вот чёрт, а я не тестирую игры (и даже не играю в них).
Если вы на компьютере только и делаете, что в игрульки шпилите, то проблема уязвимостей в процах для вас вообще не актуальна, и зачем вы тут всё это пишите — непонятно.
Я не знаю цен в рублях. Да и не объективно это. На амазоне первый стоит 360 (но я покупал месяц назад за 350), второй стоит 320. Разница примерно 30 долларов.
Выше я отметил что амд требует очень хорошую (=дорогую) память.
То на то и выходит.
На CU цены сейчас такого порядка:
i7-8700k — 321,84 € 25 643 руб.
Ryzen 2700x — 274,78 € 21 893 руб.
В России цены с НДС, выше привел.
НЛО прилетело и опубликовало эту надпись здесь
MKL прекрасно работает и на amd
НЛО прилетело и опубликовало эту надпись здесь

Разница где-то 6.5-7 раз по сравнению cblas/lapack ну 3-5 раз по сравнению с atlas.Но это не на Рязани это на бульдозерном оптероне 6230

НЛО прилетело и опубликовало эту надпись здесь
А откуда 5 ГГц? 8400 даже в турбо-бусте такой частоты не достигает (там предел — 4 ГГц и то, если нагружено одно ядро, что практически недостижимо в реальной жизни), а у 2700x потолок разгона тоже где-то в районе 4 ГГц.
5.0 имелся ввиду 8700k.
А рязань взять?
Честно говоря, много думал о рязани, с момента её выхода. Останавливает более сложный подбор компонетов (например, память), это же надо часами оверклокерзы штудировать. С интелом как-то проще. Дождаться ревизии 8700k (ну или более нового поколения) и всё. Вот и жду :(
Веб-сервер Nginx на протестированных системах Xeon на ядре Linux 4.19 показал разницу в производительности до 20%. Так то это совсем не кисло, 20%
Крайне любопытно и обратное: если машина у меня физическая, и она строго «моя» (а выжать скорости хочется побольше), там никого, кроме меня, нет, то — что можно и будет разумным отключить, чтобы скорость падала не сильно?
Да, конечно, всякие кластеры и прочие HPC/HPE не будут патчить все узлы чтобы разом потерять 7-16 % а с нарушителями там проще бороться административными мерами.
Да и стоящий под столом «серверок для меня одного» особого смысла не имеет патчить — поэтому вопрос лично для меня очень интересен.
Тем более что проблем нашли довольно много, и не все уже следят за ними пристально, зато обновления к ОС регулярно привносят в работу сервера ту или иную «мелочь» в смысле защиты — порой, как в описанном случае, даже и не нужной.

Так вы не знаете ответа?
ну насколько мне известно для meltdown/spectre нужен запуск на железе своего кода т.е. либо rce либо malicuous скрипты в браузере(вроде было демо что можно триггернуть из js) для foreshadow насколько я понял тоже, причем ещё и чтобы атакуемое приложение было на smt сестринском треде физического ядра, что тоже означает что нужна rce
Если у вас не выполняется чужой код, которому вы не доверяете вроде javascript с сайтов, то можете не патчиться.
Так я не против не патчиться, но apt upgrade делать выборочно — это самому себе проблемы создавать. А про возможность общесистемно сказать «мне защиты от дыр в процах не надо» я как-то не знаю…
НЛО прилетело и опубликовало эту надпись здесь
Отлично, а есть специальные оптимизированные сборки windows 10 специально для гейминга с прирублинными всеми патчами? Больно fps не охота терять.
есть, конечно, они обычно построены на LTSB-ветке и дополнительно отключены следящие сервисы…
Зачем при работе того же GIMP эти патчи?
а на десктопе может все будет еще печальней — топовые процы ведь самые быстрые…
Интересно бы было увидеть как коррелирует потеря производительности с количеством системных вызовов, прерываний и переключений контекста для каждой конкретной бенчмарки.

Что не так с Xeon Gold в тесте Hackbench? Почему об этом ни слова?

Предполагаю, что мы имеем дело с очередным дизельгейтом(как у Фольсквагена): ради улучшения некоторых показателей (производительности) Intel (а вслед за ней и AMD) перестала обращать внимание на ухудшение безопасности. Всё ради того, чтобы обогнать (или не сильно отстать) конкурента. Надеялись, что никто эти проблемы никогда не заметит и не проверит их добросовестность.
Про амд поподробнее. На нём только одна(Спектр) уязвимость есть, и та практически бесполезна для всех.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации