Информация

Дата основания
Местоположение
Россия
Сайт
miran.ru
Численность
51–100 человек
Дата регистрации

Блог на Хабре

Обновить

Ажиотажный спрос на новые карты Nvidia — заслуга не производителя, а косоруких разработчиков игр

Блог компании Дата-центр «Миран»Разработка игрПроизводство и разработка электроникиКомпьютерное железоИгры и игровые приставки
Рейтинг +31
Количество просмотров 33,1k Добавить в закладки 38 Читать комментарии 324
Комментарии 324
С такими бы статьями на оверклокерс.ру (нынешний).

По поводу курсора на десктопе — брехня. Я когда Wacom Cintiq начал юзать, меня курсор страшно бесил. Полез разбираться — скорость отрисовки аппаратного курсора не связана с частотой обновления экрана и определяется спецификациями каких-то тараканьих годов. По моим наблюдениям — порядка 15 герц, вне зависимости от того, что S3 Trio 3D у вас, или Nvidia RTX100500.

У меня прямо сейчас два ПК на столе, один 60 Гц, второй 144 Гц. Курсоры рисуются по-разному. Я сошел с ума?
  1. Мы говорим про аппаратный курсор видеокарты, не про софтовый (как во многих играх)
  2. Посмотрите в slow-mo, так, чтобы можно было посчитать задержку между движениями курсора.

Возможно, дело в удалении trail'а (послесвечении). Я не про это. Я про фактическое движение. Я начинал с этим разбираться в линуксах, потом проверил — в виндах и на маке одно и то же.

Речь же шла не о том, как это происходит под капотом, а о том, как это ощущается визуально.

Ощущаться оно может как угодно, но если там те же 15 fps, то толку от 144.
С большой вероятностью, вы видите эффект от black фреймов (или как они там называются), которые уменьшают послесвечение.

Полагаю, ощущается уменьшение инпут-лага.
Записал сейчас сло-мо, пошевелил курсором — да, как раз 15 кадров в секунду.

Т.е. я про это с криком "брехня" и говорю. А главное, в играх уже, вон, 144, и 250Гц, а десктопный курсор всё так же застрял в VESA 800x600x256 цветов, 15 fps, какая ляпота.

Мда, вот в какую сторону какахи надо кидать, а не в производителей игр.

Вы явно дезинформацию пишете. В Windows (за старую XP не скажу, там ещё окошки программно рисуются) указатель рисуется в зависимости от герцовки выставленной монитору в системе. В интернете на специализированных сайтах полно доказательств этому.
В Linux/MacOS понятия не имею как с этим.

за старую XP не скажу, там ещё окошки программно рисуются

Эээ, 2д-окошки тогда как раз наоборот аппаратно рисовались, да перестали в новых версиях (вернее финальная отрисовка переехала на аппаратные плоскости в 3д, но само содержимое 2д окошек стало рисоваться софтварно, ЕМНИП)

Возьмите телефон, сделайте slowmo для движения курсора. (Я про обычный десктопный курсор, не в играх).

На моём 60Гц мониторе получилось ровно 60 кадров в секунду, ЧЯДНТ? https://www.youtube.com/watch?v=vW8gEJ_oavI
(видео местами дёргается потому что мой телефон зачем-то снимает 77 кадров в секунду)

Я открыл плеер с функцией прыжков по кадрам (vlc, 'E'). Проверил.


И, кажется, мне очень стыдно. Я вычел один тайминг из другого и получил… 17. Не фреймов. Милисекунд. Кажется, я просто забыл поделить на единицу.


Мне стыдно.


Интересно, на 144/250Гц мониторе курсор двигается с задержками в 7/4 ms?

Hint: на ютубе тоже можно двигаться по кадрам, тыкая в точку на клавиатуре)

На самом деле по сравнению с моими экспериментами, главное — вы таймер на экран вывели. Я кропел над формулами fps'ов с slow-мо и забыл поделить. Получилось 16-17 (что логично было округлено до 15). Это были милисекунды, но я решил, что это fps.


Видимо, если на 250Гц мониторе быстрый курсор, то я становлюсь фанатом 250Гц мониторов. Потому что 60Гц для рисования никак не хватает.


Если штрихуешь, это порядка 2-5 штрихов в секунду. 60 fps = до 12 кадров на штрих. Если штрих хотя бы 10см (забыли про пикселы), то при условии, что штрих "разгоняется/замедляется", положения курсора выглядят так:


* *    *        *                   *       *     *   * *

(я сократил число точек, чтобы влезло в одну строку).


Страшно бесило. Да, 60 fps уныло.

Там же принудительная ОС в комплекте. Спасибо, не надо.

И эта ОС мешает вынести готовую работу оттуда?

У них нет mypaint и krita. Т.е. железо есть, а софта под него нет. Точнее софт есть, но инопланетный и неудобный (хоткеи mypaint'а?).

Даже с джейлбрейком не портировали?
Фигово тогда, хотелось купить именно для рисования.

Заметки на полях: ну вы ошиблись и признали свою ошибку (с кем не бывает — no big deal в моих глазах), но люди вас плюсовали, и интересно, почему…

Потому что если подёргать курсор на экране (особенно, на 25"+), то будет полная иллюзия, что это 15 фпс. Очень рябит.

Вот шаг от 60 к 144 в таких вещах очень заметен. А далее нужны шаги все больше и больше, т.к. в миллисекундах разница становится все меньше и меньше. После ~400Гц придется делать скачок сразу к заветной 1000Гц, чтобы это имело смысл.

У меня рабочая машина с монитором на 60 Гц и игровая на 144. Разницы я не вижу вообще.

У сына монитор 144 Гц, при перемещении окон разница видна невооружённым взглядом (хотя не могу сказать, что за эту разницу я готов заплатить много денег).
А много и не надо, зачастую после того как технология пришла, она становится просто бесплатной (дефолтной) частью обычных продуктов :) Первые пользователи — да, оплатили сполна развитие, а дальше просто будет в каждом мониторе.

А вы в настройках ОС-то включили частоту обновления 144 Гц? Она автоматически не обновляется с 60 при смене монитора.

Не знаю как при смене, но у меня для новой установки и мониторов 75 ГГц выставилась родная частота.
для новой установки и мониторов 75 ГГц выставилась родная частота.
75 гигагерц? Неплохо.</s>
75Гц и у меня выставилось… когда я подключил 144Гц монитор.
Я не говорил. Но то, что частота выставляется не максимальная доступная — это факт.
Начинали еще с CGA-EGA-VGA? ;)
Я вот долго не мог понять, что означает столь популярное «мыло». И до сих пор не уверен, что правильно понимаю.
Вы ошибаетесь. В статье ситуация с курсором описана верно. Отрисовка курсора происходит при каждом обновлении экрана, что логично. И чем выше частота этого обновления, тем плавнее курсор визуально.

На частоту обновления координат курсора сообщаемых операционной системой приложениям его отображение не влияет и зависит от поддерживаемой частоты опроса устройства ввода, мыши, трекпада, планшета. Как правило она значительно выше.

Если у вас курсор обновляется с частотой в 15 кадров в секунду при вводе с Wacom Cintiq, то это проблема исключительно Wacom Cintiq или его драйверов. Можете убедиться в этом хотя бы тут zowie.benq.com/ja/support/mouse-rate-checker.html, сравнив его с нормальной мышью с частотой в 1000Hz.
Беспроводная Logitech G603
image
Частота опроса с частотой отрисовки курсора не связана никак вообще.

Частота опроса не связана с частотой отрисовки, но результат отрисовки зависит от частоты опроса. Если устройство ввода предоставляет данные с частотой всего 15 Гц, то отличаться между собой результаты отрисовки будут тоже только 15 раз в секунду, а остальное время будут повторяться.

Но и с другой стороны — если устройство ввода предоставляет данные с частотой 1000 Гц, то это не значит, что и курсор будет отрисовываться на экране с такой частотой.
Если графическая карта и монитор будут работать в режиме обновления 1000 Гц, то и курсор будет отрисовываться с такой же частотой. Но на данный момент монитор с поддержкой более 300 Гц на рынке не представлен.

Отрисовываться будет, а вот сдвигаться в сторону будет не чаще, чем 15 раз в секунду. Т.е. если refresh ratio (условные) 150Гц, то движение курсора будет происходить не чаще, чем раз в 10 кадров.


Enjoy.

Серьёзно, это видимо какая-то особенность вашего планшета или системы, но обычный курсор совершенно очевидно _не двигается_ 15 раз в секунду, это было бы совершенно невыносимо.

В треде выше выяснили — это моя ошибка деления. 15мс vs 15 fps.


Я теперь фанат 250Гц.

Я фанат 1000fps после этого видео и другого релевантного ресёрча, но это придётся ещё чуток подождать (пока максимум доступный просто в магазине это 360гц. Кстати, для рисования ipad pro должен быть хорош — там 120гц и эпл уделяет много внимания снижению задержки со стилуса, но я не художник, лично оценить не могу, кроме того, что отзывчивость в целом очень нравится


НЛО прилетело и опубликовало эту надпись здесь
«Совершенно очевидно» — это не аргумент. Для меня тоже было совершенно очевидно, а записал видео — и там 15 fps.
Однако у автора оказалось не 15 фпс, он ошибся в расчётах. :)
У автора расчёты, а у меня эксперимент.
При этом частота опроса порта — стандартные 125 Гц.
У автора расчеты на основе такого же эксперимента. Исходите из того, что курсор ОС всегда передвигается с той же частотой, что обновляется экран (или с частотой устройства ввода, если она окажется ниже) и ищите где ошиблись.
Я неправильно выразился. Отрисовываться — да, а вот менять свое положение — вовсе необязательно.

Отрисовка курсора происходит аппаратно, на каждом кадре. Но положение курсора меняется не более чем 15 раз в секунду. Просто возьмите вашу тысячегерцовую мышку, повозюкайте на вашем 250Гц экране, запишите видео в slow-mo и увидьте самые что ни на есть посконные 15Гц, которые выглядели удивительно хорошо для VESA 640x480, и даже для 1024x768.


Т.е. ввод у вас на ТЫЩУ герц в секунду. Вывод на 250Гц, а обновление — пятнадцать раз в секунду. Не нравится? Отключайте курсор. Именно так я и сделал в krita при рисовании. Я отключил курсор, и krita была способна рисовать размытые сложные текстуры кисти быстрее, чем видеокарта показывала курсор.


И API отрисовки курсора насрать сколько у вас герц. Сказали 15, значит 15.

Скажите, вы сейчас о какой именно операционной системе говорите?
У вас проблемы с конфигурацией. Не стоит думать, что все страдают так же как вы и дезинформировать остальных.

Пожалуйста, обычный монитор на 60 Гц
image

Как видите на обычном офисном компьютере с Windows 10 курсор вполне себе перемещается 60 раз в секунду. У нас в 2020-м ваши проблемы давно решены.

Это интересно. Вы делали screen capture? Я смотрел на slow-mo и считал задержку между прыжками курсора. У меня получалось 60ms.

Да, это запись экрана через OBS Studio. Снимать экран на видео в данном случае нет необходимости, т.к. если обновление курсора уже происходит 60 раз в секунду, то при выводе на экран эти обновления никуда исчезнуть не могут в принципе, если не уменьшать частоту обновления всего экрана с пропуском кадров.

Т.к. аппаратный курсор не захватывается с экрана (его нет на bitmap пикселей), то его "пририсовывают" по текущему положению при захвате (для этого есть спецопция — показывать курсор). Может ли быть так, что его пририсовывают чаще, чем видеокарта отрисовывает?

На счет изображения самого курсора на видео вы правы, т.к. со стороны разработчиков OBS куда удобнее отрисовывать курсор для каждого кадра кодируемого видео из координат системного API, нежели как-то синхронизировать его с частотой обновления экрана, которая может быть совсем иной и никаких преимуществ не даст.

Но визуальные эффекты вызываемые курсором отрисовываются только, если сам курсор отрисовывается на них. Иное поведение сильно бросалось бы в глаза и раздражало бы пользователя как «тормознутость» интерфейса.

Я вижу, что вы уже нашли источник ошибки в определении частоты отрисовки вашего курсора и дополнительные доказательства вам уже вряд ли требуются.
скорость отрисовки аппаратного курсора не связана с частотой обновления экрана и определяется спецификациями каких-то тараканьих годов.

Программа F.lux при включенной соответствующей опции, насколько я понимаю, меняет курсор на софтверный при необходимости (например, при сильном снижении яркости, или включении различных фильтров) — т.к. в противном случае штатный курсор слишком выделяется. Этот софтовый курсор будет плавно двигаться, интересно?

Меняет курсор на софтверный или просто меняет аппаратную иконку на желтенькую?

Так было бы это еще только в играх, весь софт жиреет на глазах.
Сколько там нынче занимает обычная вебстраница с статьей в три абзаца теста и парочкой иллюстраций?

Сто, двести мегабайт?
Вот эта, с картинками, скриптами и комментами 9 с чем-то

Кстати для улучшения восприятия мегабайта: 1 мегабайт ~= 1 книга в 300..400 страниц.
То есть 3.5 мегабайта ~= 1 x "Война и мир".
А эта, с картинками, скриптами и камментами — как увесистая книжная полка.
Такие дела.

Сравнивать картинки с текстом — в корне не верно, всё-таки если картинки будут во всё той же книге, то она тоже просто начнёт весить и 900Мб (большие электронные книги по биологии, например)
Хотя даже без картинок много весит, это бесспорно) У меня был «проект» (эксперимент) — страница в 1 пакет (1500б с учётом заголовков после gz). Продуктовая ценность сомнительна, но как челлендж)
Когда-то мне выписывали журнал «Юный техник» и там они писали про флоппи-диск (кмк, 1.44М): «на него можно переписывать почти весь выпуск журнала». Т.е. журанл ЮТ занимал порядка 1.44М, чуть больше, в начале 1990-х. Без картинок — не поверю, не такой уж большой журнал, точно не Война и Мир, даже с разметкой полтора метра не будет. А с картинками как-то маловато.
Что очень мало и скромно.

Если лет пять назад ругались на кликбейтные гифки по мегабайту весом, то как я заметил, сейчас перестали стесняться даже встройки рекламных видеороликов на 30-50 мегабайт.
Интересно, ноутбуки поддерживающие 4к со 120гц и выше по hdmi и/или dp есть? Не спрашивали бы тут, но по текущим каталогам ЯМ и прочим фильтров такого рода просто нет. Просто интересно — вот этот весь ажиотаж по поводу 120гц и выше — он для десктопов в основном или и для ноутов тоже.
p.s.: То что есть ноуты со 120гц и выше на родном мониторе — знаем, речь именно про возможность подключения большго внешнего телека (по хдми) или монитора (по хдми или дп).
Выход сигнала 4k@120hz поддерживает только серия nvidia 3000, ноутбуков с такими карточками пока нет. Edit: по HDMI, DisplayPort не часто в ноуты ставят.
сейчас в ноутбуках новый тренд ставить usb type-c с проксированием HDMI и DisplayPort
Можно в качестве адового workaround-а прицепить eGPU через Thunderbolt, если ноутбук на Интеле, и туда уже внешний монитор. (Это немношк читерство, да.)
4k@120 на ноутбуке — это разве что пустой экран рендерить. (Но да, вывести на телевизор тоже не получится.)
В статье просто было сказано про плавность даже интерфейса виндов в 120гц, нагрузки на видяху там примерно ноль от интерфейса и если разница заметна, то почему бы и нет? На монитор (дп) или на телек (хдми) вполне приятно было бы вывести.
Я в самом деле не уверен, насколько заметна разница — т.е. я юзаю монитор 144 Гц, но на нем ведь открыт, грубо говоря, браузер и ютуб, а в ютубе видео максимум 60 фпс по-моему. Или редактор, а в нем буквы.

Вот в играх да.
Разница очень ощутима при скролле, движении курсора, перемещении окон.
Стоит ли оно того _только_ для этих кейсов — вопрос философский (по-моему, не очень; а вот для игр, даже несоревновательных — да, разница невероятная), но разница есть.
а в ютубе видео максимум 60 фпс по-моему
Если открыть 60фпс видео и включить скорость 2х, то будет 120, утверждают.
Я один не понял как геймеру поможет 144 Гц на мониторе если на сервере просчёты, трассировки и синхронизация игроков не зависят от его видеокарты и скорее всего осуществляются раз 10 в секунду?

в CSGO есть серваки с 128 hz тикрейтом, в автосимуляторах физика на клиенте считается, да и вообще лучше иметь частоту игры в 2р больше чем тикрейт сервера, кто хоть недельку играл на быстром мониторе назад не вернется..

в CSGO есть серваки с 128 hz тикрейтом
Вот это уже интересно, почитаю, спасибо.
в автосимуляторах физика на клиенте считается
Если это лишь для красоты ОК, иначе прямой путь для читеров.

В Assetto Corsa физика тикает на 333 hz только на клиенте, сервер верит клиенту на 100%. И большая часть шутеров работает по схожему принципу, отсюда и миллиарды читеров.

Если взять не авто-, а авиасимуляторы (DCS), то играть с большими пингами таки боль.

прямой путь для читеров

Так их там не мало. Автосимы спасает только нишевость. Были бы они так же популярны, как CSGO, играть было бы невозможно.

Если быстро развернуться в шутере, при 144 Гц геймер может увидеть больше промежуточных кадров, что позволяет лучше определить нахождение и скорости противников.
позволяет лучше определить нахождение и скорости противников
Все эти параметры приходят с сервера, если же игра пытается интерпретировать положение игрока то получится, что на клиенте вы выстрелили в противника, а для сервера это ещё/уже пустое место — вы уверены, что попали, а сервер говорит «мимо». Я не прав?

Расскажу на примере движка Source. На клиенте и сервере есть все игровое состояние, клиент выполняет некоторую интерполяцию (если пинг совсем уж большой, то даже екстраполяцию). Также, клиенту известно что находится сзади игрока, то есть если вы повернётесь назад то вы увидите что там есть (или было на сервере несколько мгновений тому). И сможете среагировать на чувака, который на вас целится.


А теперь перейдём к самому интересному: стрельбе. Когда вы стреляете, то вы отправляете эту команду на сервер, сервер знает пинг и временно «в уме» возвращает всех игроков в те позиции, которые были когда клиент стрелял. То есть, если клиент попал, то независимо от ринга он реально попадёт. А вот если в вас стреляли, вы спрятались за стену, то не факт что вы живы — есть небольшой промежуток времени (100-200 миллисекунд) когда вас могли убить.


Подробнее можете почитать здесь: https://developer.valvesoftware.com/wiki/Source_Multiplayer_Networking

Я в достаточной мере, надеюсь, представляю как работает сетевая синхронизация, что снова возвращает нас к вопросу, если все расчёты идут на сервере, то частота обновления кадров у игрока на компе особой роли не играет. Потому что это не может быть TCP с нарастающим лагом по времени, а в случае с UDP возможны «скачки» позиций других игроков (что иногда и наблюдается в играх) связанные именно с интерпретацией и восполнением потерянных пакетов и редким просчётом на стороне сервера и, следственно, «промахи» когда игрок уверен, что попал.
Если просчёт идёт на строне игрока — это прямой путь к читерству, тем более, что у кого-то 150 fps, а у кого-то 30 и синхронизироать их практически невозможно.
По приведённой ссылке как раз и описываются методы компенсации сервера, просчитывающего положения игроков 10 раз в секунду.

Частота кадров играет роль. Как минимум, при большей частоте кадров меньше задержка между тем игровым состоянием и рендером на экране. Если брать в пример киберспорт, то на чемпионатах используется локальная сеть, поэтому пинг — абсолютно не проблема. Если пользовательский сегмент — просто плавнее всё.

Частота кадров играет роль. Как минимум, при большей частоте кадров меньше задержка между тем игровым состоянием и рендером на экране.
А игры до сиз пор однопоточные? О_о
Если на сервере просчёт идёт условно 10-20 раз в секунду, я не понимаю как это снизит задержку между игровым состоянием и рендером, который и так обновляется 60 раз в секунду, ну будет обновляться 144, и? Синхронизация с сервером то всё равно в большинстве случаев реже.

Следовательно, если на сервере всё считается 10 раз в секунду, на клиенте будет достаточно 10 кадров, верно?


Мы сильно переплачиваем даже за 60 Hz мониторы

Учимся читать что написано, а не додумывать, речь шла какие именно преимущества даст 144 Гц перед 60 Гц при том, что играем в онлайн игру с расчётом положений игроков на стороне сервера.
Ещё раз: с учётом того, что 1) наиболее требовательные к скорости реакции соревновательные игры играются на серверах с тикрейтом 60+, а то и 120+ и 2) есть интерполяция (и положения игроков/объектов в том числе) и синхронизация, разница есть, и она о-гром-на-я.

Не так часто просчёт на сервере идёт 10-20 раз, разве что медленных играх, к примеру в Minecraft — 20 раз в секунду. Но в быстрых играх эти значения намного выше — в CS GO 64 или 128 тиков за секунду. Рендер не всегда рендерит актуальное состояние, происходит например интерполяция (плавное перекрещение между предыдущим и следующим состоянием происходит несколько кадров) и у вас плавнее картинка.

Я говорил не о плавности картинки как таковой, а о том, что 144 Гц не даёт преимуществ игрокам, а порой наоборот может привнести негатив, когда из-за низкой скорости синхронизации будут возникать разночтения между сервером и клиентом.
Если я сейчас на ютубе посмотрю несколько видео стримеров по CS:GO или летсплейщиков я точно ни разу не увижу ситуацию когда они выстрелили точно в противника, а пуля/снаряд/что-то ещё прошли насквозь так как серверная коллизионная модель не совпала с клиентской?

Речь в оригинальной статье шла же только о волшебном мире топовых видеокарт в связке с 144 Гц мониторами, и автор ни разу не обмолвился, что для он-лайн игроков скорость просчёта на сервере может быть даже важнее, а в идеале она должна быть более-менее синхронна частоте кадров.
автор ни разу не обмолвился, что для он-лайн игроков скорость просчёта на сервере может быть даже важнее,
В статье о тёплом автор ни разу не обмолвился о том, что мягкое тоже важно, действительно, шокирующие новости.
Дело не в том, успели ли вы в него выстрелить, когда увидели, а увидели ли вообще и сколько кадров с ним вы увидели. Потому что если на одном кадре он был от вас за стеной, а на следующем уже пробежал просвет или застрелил вас — то вам не поможет никакая реакция.
Вы сейчас про разницу между 60 и 144 Гц или про 10 и 60 fps?
И так, и так. Прыгающий игрок пролетает мимо вашей «форточки»/бойницы — можете и на 60Гц не успеть увидеть либо вообще ничего, либо деталей. Либо увидеть только часть его тела. Кроме полёта так же работает и с просто быстрым поворотом «головы» (поля зрения).
Кроме прочего, просто движущийся предмет при слежении за ним глазами размывается обратно пропорционально ФПС (посмотрите на тот же «НЛО-тест»).
Прицеливание локальное, и реакция персонажа на ввод тоже локальная. А другие игроки интерполируются, игра додумывает промежуточные значения. Т.е. визуально они тоже движутся плавнее, хоть это и менее точное представление.

Еще в играх навроде CS:GO ввод обрабатывается в каждом кадре, т.е. выше фпс == меньше инпут лаг. Поэтому все отключают v-sync и ограничение по фреймам, и рендерят 300-400 фпс, хоть монитор и отдает 144.
Прицеливание локальное
И поэтому в некоторых играх можно включить серверный прицел?
Локальное прицеливание — открытая дорога для читеров с автовыцеливанием уязвимых зон. Если это так, в CS:GO играть я бы не хотел.
Нет, прицеливание как процесс происходит локально. Вы двигаете мышкой, мир вокруг камеры поворачивается. Чем ниже фпс, тем сложнее точно навести перекрестье на цель, особенно в движении.

Что такое серверный прицел? Вы про hit reg? Это конечно на сервере.

(Ну и да, вы бы не хотели играть в CS:GO безотносительно. Никто бы не хотел. Просто соревновательных шутеров-то не делают, вот и насилуем потихоньку труп с графикой родом из 2004.)
Никто бы не хотел. Просто соревновательных шутеров-то не делают, вот и насилуем потихоньку труп с графикой родом из 2004
Неправда, отличная игра.

Соревновательные шутеры делают — Apex Legends, R6: Siege, Valorant, в конце концов Diabotical и Quake Champions живые. Вот только КС лежит в практически идеальной нише easy to learn — hard to master, который делает её практически «непобедимой» с т.з. и простоты вовлечения игрока, и простоты вовлечения зрителя, если мы говорим о киберспорте.
Ну я про это и говорю, навешают свистоперделок, какие-то классы персонажей с абилками а-ля Дота, с магией и девочками-волшебницами — вот и возвращаемся каждый раз в CSGO.

Я ж её тоже люблю, классная игра. Сделайте мне такую же точно, но с графикой! Нет, вот тебе вместо этого Overwatch, который по сути Дота от первого лица, и вот тебе еще Fortnite, где противник превращается после одного выстрела в девятиэтажный дом.

Беда печаль.
Сделайте мне такую же точно, но с графикой!

А собственно зачем?
«такую же точно, но с графикой» делать, во-первых, сложно (повторять всякие там quirks физики движка — а это на высоком уровне в КС крайне решает, тонкости вашего микроконтроля это прям всё-всё-всё), во-вторых, не шибко нужно широкой публике — то, что КС можно запускать по современным меркам хоть на утюге, идёт ей только в плюс. Охват больше. А на серьёзном уровне, опять же, игроки настройки графики и разрешение дропают «в ноль», чтобы добиться стабильно высокого фреймрейта и «консистентной» возможности разглядеть противника на любом фоне (меньше эффектов — вас меньше парит, например, освещение там, где стоит противник, увидите так и так).
Нет, прицеливание как процесс происходит локально.
Можно я с вами не соглашусь, потому как это сильно зависит от реализации игры.
В некоторых играх, где авторы заморочились над античит-системой прицел целиком серверный. Клиент отправляет смещение мыши в условных попугаях (10 вверх, 4 влево), сервер рассчитывает относительно своих данных куда смотрит прицел и высылает клиенту фактическое положение. Процесс может быть асинхронный для компенсации больших пингов, но тогда должна выполнятся периодическая процедура синхронизации.
Если прицеливание будет целиком на клиенте — можно написать программу, которая всегда будет выцеливать уязвимые места противника в пределах видимости.
можно написать программу, которая всегда будет выцеливать уязвимые места противника в пределах видимости.
Вы-таки не поверите, но как бы вы ни делали популярную сетевую игру, если в ней в принципе можно читерить (а серверсайд хитрег вас не спасёт от читерства, совсем не спасёт), вам надо будет озаботиться античитом.
Вопрос не в можно, всегда что-то можно. Вопрос в «сделать сложно и больно разработчикам читов».
Ну а если сервер-сайд расчёты не помогают, то тогда и делать их не стоит, пусть всё считает клиент, правда ведь?

Серверсайд-хитрег не всегда нравится и игрокам в том числе, это вполне буквально вопрос вкуса и конкретных ситуаций, возникающих в игре, прочих аспектов её не кода.


Ещё раз — в шутере разница между клиентсайд-хитрегом и серверсайд-хитрегом как раз совершенно несущественная для читеров — ну будут они попадать не 100% выстрелов, а 95-97% выстрелов, грубо говоря — и на разработку читов влияет примерно никак (найти в памяти или даже на экране модельку вообще не проблема — я знаю людей, которые делали POC чита-эймбота для шутера через распознавание изображения нейронкой), а на их эффективность, как я выше и сказал, минимально влияет. Разница между честным игроком и читером не станет из-за этого существенно меньше. Нужен нормальный античит.

я знаю людей, которые делали POC чита-эймбота для шутера через распознавание изображения нейронкой

Давно интересовало — есть аппаратные устройства типа usb2kbd, которые имитируют клавиатуру и позволяют даже через сеть посылать движения мышкой/нажимание клавиш.

А какие есть аппаратные устройства дл перехвата монитора?

Что значит "для перехвата монитора"?

Во-первых проще захватывать сам экран или окно приложения программно на той же машине. Но если необходимо разделить, то есть карты захвата HDMI с path through. И это куда более распространенные потребительские устройства нежели usb2kbd.
Во-первых проще захватывать сам экран или окно приложения программно на той же машине.

Если говорить о автоматизации в играх, то не желательно иметь процессы autoit или autohotkey, или питона который смотрит цвет пикселя на экране.
то не желательно иметь процессы autoit или autohotkey

Их очевидно переименуют.
Гм, а банальный сплиттер сигнала видеокарты — не оно? :)
А если мы говорим о софте, то фрейм буфер считать вроде не сложно, было бы желание.
Гм, а банальный сплиттер сигнала видеокарты — не оно? :)

Видимо, оно и есть, спасибо :).
Упс, нет, не то. Мне надо читать экран одного компьютера с другого компьютера. Пока приходит на ум только софт для удалённого управления.

HDMI граббер вы имеете в виду? Такие штуки как стримеры игр используют для трансляций?

Да, уже нашёл. Всё банально и просто, спасиб.
Да не соглашайтесь конечно, просто дайте ссылку на такую реализацию, чтобы на сервер отправляли смещение мышки, а оттуда прилетал угол поворота камеры. Потому что я такого не встречал, и мне правда интересно узнать что-то новое.
Первое что вспоминается — все игры Wargaming с их «server side reticle», War Thunder использует (или использовал, давно не играл) немного другой алгоритм, но у них тоже положение прицела приходит(ло) с сервера.
В BF3 тоже всегда отображалось положение прицела взятое с сервера, а не клиентское, но как там синхронизировалось — не разбирался, а потом и не играл уже.
Много нареканий было на стрелялку в духе Сталкера (Сурвариум кажется), жалобы из серии «урон не прошёл» это было в каждом видео по этой игре именно из-за подобной схемы, когда сервер и клиент считали положение игроков и прицелы асинхронно.
В целом если поискать по server-side reticle / crosshair можно найти много интересного.
Спасибо! Почитаю, как это у кого реализовано.

Первое что нагуглевал — в WOT это по дефолту выключено, т.е. клиент все равно отображает свой прицел, а в момент выстрела берется серверный (и это вызывает фрустрацию у чуваков на форуме).

Интересно, конечно.
Кроме того, у WoT есть одна особенность, для нормальных шутеров не характерная — у танковой башни or whatever, в отличие от персонажа в среднем «обычном шутере», скорость вращения — лимитированная величина (и десинхронизация может быть ещё и в вопросе «а куда довращалась моя башня»). Оттого это куда нужнее, чем в среднем шутере.
Первое что вспоминается — все игры Wargaming с их «server side reticle»
Эти игры — буквально единственное, что гуглится по «server side reticle/crosshair», ага. И там, в отличие от шутеров, невозможен ~моментальный разворот камеры/прицела на произвольный угол (потому что у танковой башни в WoT ограниченная скорость вращения, у персонажа в КСах, Апексах, Овервотчах и прочих Квейках — нет). И в обычных шутерах такое не используется, более того, банально неприменимо как раз потому, что фликшоты с разворотами на 90+ градусов являются допустимыми и у честных игроков. Серверсайд-хитрег используется, но про него я тоже написал в других комментариях.
Термин взят от туда, так как несколько лет назад активно и много играл именно в «танчики», возможно для других игр надо по другому запрос строить.
А возможно, в других играх его нет, потому что он просто неприменим. :)
Ну и да, в танках используется serverside reticle, а вот serverside crosshair ничего полезного не выдаёт в гугле, кроме тех же танков (а если отфильтровать их, остаются фанаты выживалок и симуляторов, спрашивающие, как на серверах отключить прицел ради реализма, а не что-то, имеющее отношение к дискуссии).
Вот у LTT видео со сравнением прицеливания на 60/144/240 Hz (если не путаю). Оно спонсировано NVidia, но, во-первых, до этого у них было менее масштабное видео без спонсорства NVidia, а во-вторых, политике LTT в отношении спонсорства я доверяю.

TL;DR:
1. Высокая частота очень сильно влияет на прицеливание.
2. Разница 60/144, естественно, более заметна, чем 144/240.
3. Чем хуже вы играете, тем больше прирост.

www.youtube.com/watch?v=OX31kZbAXsA

Да просто видишь больше, при обычных 30-45 ФПС видны детали сцены только когда камера неподвижна, поворачиваешь персонажа по сути вслепую, "по памяти". А на 144 ФПС обзор не теряется. Легко заметить поиграв во что — то динамичное, мне дум етернал в этом плане нравится. Если ограничить ФПС на 45 — играть в него практически невозможно, не попадаю :(
И даже если играем по сети — то с низким ФПС противник может попасть в поле зрения в тот момент как я начал поворачивать (т.е., на сервере его движение отработано нормально и он меня увидел), но т.к. я не заметил его за один-два кадра и уже начал двигаться и не могу ничего различить в быстром движении из-за низкого фреймрейта — теряю его, а с высоким фреймрейтом он бы дольше оставался в моём поле зрения и я б его увидел.

То есть ажиотаж не потому, что нвидия перед запуском успела произвести всего тысячу новых видеокарточек, которые в два раза быстрее/в два раза дешевле при той же производительности, а потому что разработчики игр криворукие?

Но игры всегда работали медленно на текущем железе и «стабильные 60гц» не от балды появились как показатель, а скорее как «дайте хотя бы 60гц на топовом железе». А то, что внезапно случился прогресс в мониторах, да ещё и внезапно все стали чувствительны к разного рода задержкам (см. VR и киберспорт) и теперь внезапно «стало стандартом» 144гц или сколько там — это не обязательно значит, что разработчики криворукие, просто потребности потребителей поменялись быстрее, чем идёт разработка. Да и в конце концов, «патчи производительности в драйверах» это может быть как «мы исправили скорость работы этих криворуких геймдизайнеров», так и «криворукая нвидия до этого рендерила вполне нормальный кадр через жопу и медленно».

Для вычислений и науки у Nvidia давно есть карты серии Tesla V100 и Tesla A100.

И пассаж про ГПУ для датацентров и нейросеточек — мы тоже ждём и раскупаем эти 3080/3090, кто в здравом уме будет мечтать о карточках в десять раз дороже, просто потому что они «серверные»? Хз, что там за сравнение с интелом, но серверные теслы уже десять лет как стоят в серверах за свои 10к$, а «геймерские» карточки имеют практически такую же производительность на многих задачах и массово покупаются мамкиными датасайнтистами — этот аспект совершенно не изменился в этом поколении, вообще.

Я не могу понять, почему прогресс произошел ВНЕЗАПНО? Ещё в начале 2000х на ЭЛТ- мониторах во все шутеры играли на 100+ ФПС и прекрасно движки HL, Q3 и UT с этим справлялись даже не на топором железе. За 20+ лет ничего не изменилось — во все сетевые шутеры по-прежнему играют на 100+фпс, а для разработчиков таикх игр это слато откровением?

Я представил себе, как сижу перед 34-дюймовым 4k ЭЛТ-монитором, укрывшись свинцовым пледиком.

Пледиком надо укрываться сидя не перед ним а за ним. Туда защиту не ставили

Электронная пушка направлена в сторону экрана, отраженное назад от маски/люминофора излучение на правильно настроенном мониторе очень мало.

Ну и средний пробег электрона в воздухе около 15 см, насколько помню..

При торможении электрона о маску выделяются фотоны, на 25кВ это уже рентген.
Он может как пойти вперед и быть заметно поглощенным защитой в экране кинескопа, так и отразиться в сторону, где такой защиты нет
Просто «все сетевые шутеры» — это далеко не исчерпывающее множество игр и игроков. А на ЭЛТ играли как раз 20 лет назад, а потом был катастрофический регресс в этой области на долгие годы, когда 60гц лсд панели заполонили рынок по причине других преимуществ. Сейчас мы живём в эпоху возрождения интереса к быстрому выводу изображения (в основном благодаря хардкорным геймерам в шутеры, да, спасибо им за это).
Для некоторых и 60 Гц откровение, вон Мафия 3 вышла в 2016 году залоченная на 30 фпс. Позднее нестерпимый жар от седалищного воспламенения геймеров заставил разработчиков из Hangar 13 выпустить патч, но сам факт. Еще бы на 24 залочили.
Не согласен со статьей что 60 ФПС являются стандартом. 30 ФПС до сих пор используется в консолях.

Пример apex legends и call of duty warzone в качестве плохо оптимизированной игры некорректно, это одни из самых хороший оптимизированных игр с точки производительности (не считая качество серверов и вылеты warzone). Apex выглядит намного лучше чем 5-ти летний titanfall 2, и работает тоже очень хорошо. В call of duty каждые 3 месяца графику ухудшают, за счет чего растет фпс, хотя игра выглядит заметно хуже чем на момент выхода, но работает получше.

144 hz нужно только заядлым геймерам или для тех кто играет в киберспортивные игры на победу. В остальном 60 hz вполне хватает.

Единственно исключение в этом году это doom ethernal — игра является одной из самых красивых на текущий момент, но при этом выдает спокойно более 100 кадров на средних машинах, загрузка с контрольной точки происходит за 5 секунд(в других играх это может быть и 30 и 60 секунд) на HDD, и игру уже запускали в 1000 фпс. Не уверен что существует другая игра которая поддерживает 1000 фпс.
144 hz нужно только заядлым геймерам или для тех кто играет в киберспортивные игры на победу. В остальном 60 hz вполне хватает.

Звучит как BMW и Mercedes нужны только заядлым гонщикам и тем кто на работу опаздывает, остальным хватит и ВАЗ 2106.
В общем это вот ваше "хватит", у всех разное. И многим хочется комфорта вне зависимости от профессии. Я вот ни разу не гонщик и даже не профессиональный водитель, но предпочту ездить на BMW, а не на ВАЗ-2106, которого (если судить по вашему) вполне хватит ездить на работу...

А зачем вы 60 fps с ВАЗ-2106 сравниваете?

Затем, что когда-то давно ездил на 2106 и мне было "вполне хватит", а потом поездил на более хорошей машине и 2106 стало уже "не очень".
Тоже самое и здесь, разница не только в скорости, но и в комфорте.
144 даже в обычной работе за компом заметно комфортнее.
Но конечно же будет толпа людей утверждающих, что и 60 хватает для всего)
Как и раньше была толпа утверждающая, что SSD нужен только серверам для скорости, а дома и на HDD хорошо. И т.д. и т.п.

А между «шестёркой» и бэхой для вас ничего не существует?

Очень глупо троилите.
Это просто пример.

Звучит как 360 км в час нужны автогонщикам, а остальным и 60 хватит. ;)
Пример apex legends и call of duty warzone в качестве плохо оптимизированной игры некорректно, это одни из самых хороший оптимизированных игр с точки производительности (не считая качество серверов и вылеты warzone)
То есть постоянные лаги, телепорты, дропы ФПС на топовом железе при минимальных настройках — это для вас "хорошо оптимизированная игра"? Почему?
Если вы хотите пример хорошей оптимизации — посмотримте на Overwatch. Он ухитряется выдавать 60fps даже на видеокарте 740M (мобильной, Карл!), а на 1070 на medium 200+
Apex в это время на 1070 даёт едва ли 100 на минималках

На счёт Apex вы ошибаетесь. Играю год на gtx 970. На почти максималках 60 кадров спокойно выдает. На средне — высоких 100+.

Ну я по своему опыту сужу :)
Если на 1070 поставить medium, то ~90фпс + будут дропы до 60фпс
Если на 1070 поставить low, то будет ~105фпс + будут дропы до 80


1080 немного лучше, но тенденция аналогичная.
И 120фпс невозможно выжать даже на минималках (в принципе, не говоря уж о налчии дропов)

100+fps на 144-герцовом мониторе создают совершенно другой опыт даже от несоревновательных игр с хорошей картинкой. Прям невероятно другой.
Apex выглядит намного лучше чем 5-ти летний titanfall 2

При этом гораздо жорливее чем фортнайт, на сравнимых настройках детализации
Я не знаю, как бы написать помягче, чтобы не наловить еще минусов в карму.
Статейка написана с точки зрения какого-то ничтожного меньшинства игроков, которое «уже давно» играет на мониторах с частотой 144, а то и 240 Гц и жаждет отдать кучу денег за топовое железо.
Подавляющее большинство игроков, будем откровенны, устраивает 60 FPS. Я уже не говорю про пользователей консолей.
Я сильно сомневаюсь, что в двойном слепом тесте поклонники экстремальных фреймрейтов отличат 100 FPS от 200.
Не могу сказать ничего про FPS, однако, отличие 144 Гц от 60 Гц просто колоссальное, и даже не столько в играх, сколько в простом сёрфинге. У меня как-то монитор свалился из 144 в 60, и я долго не мог понять, от чего же мне так больно. Гостинг текста при прокрутке на 60 Гц просто сумасшедший.
а 24 и 60 отличат или сомневаетесь?
Я сильно сомневаюсь, что в двойном слепом тесте поклонники экстремальных фреймрейтов отличат 100 FPS от 200.

На самом деле не зря сомневаетесь.
Если быть максимально точным, то наше зрение не работает в «кадрах в секунду». Это аналоговая система, которая очень упрощенно состоит из двух компонентов: глаза и мозг.
Глаза сбрасывают информацию в мозг по «наполнению» палочек и колбочек, мозг эту информацию анализирует и обрабатывает.
Предельная частота кадров, которые мы способны различить и распознать ограничивается двумя вещами:
1) Характеристиками картинки.
2) Характеристиками мозга.
Если картинка статичная или с крайне медленным движением — ожидаемо, что разницы между 30/60/144/220 Герцами никакой не будет. А вот со вторым пунктом уже чуть сложнее: система аналоговая, если что-то не успело обработаться целиком — оно может обработаться частично и очень упрощённо. Поэтому, в случае типичного человека 80-140 Герц это та максимальная частота кадров в секунду, на которых он может отчётливо различать движение (то есть полностью обрабатывать картинку). Но при этом некоторые люди испытывают дискомфорт от работы с теми же самыми OLED-дисплеями на низких уровнях подсветки и с «медленным» ШИМ. Всё дело в том, что хоть мозг, обычно, не способен полностью обрабатывать смену картинки с частотой выше 140 Герц; но глаз то способен скидывать эту информацию значительно чаще. В итоге мозг перенапрягается в попытке переварить вот это всё, не справляется, скипает и получается дискомфорт выходным сигналом. Глаза же начинают скипать информацию начиная с 1 кГц.
Поэтому лично у меня есть предположение, что единственным способом в слепом тесте определить где 120 Гц, а где 240 Гц (отбросив влияние ШИМ подсветки, если он есть) является возможное появление чувства дискомфорта на более высокогерцовом мониторе.
Вы имеете в виду пропадание чувства дискомфорта на высокогерцовом мониторе?
Вы имеете в виду пропадание чувства дискомфорта на высокогерцовом мониторе?

Нет, я максимально чётко обозначил границу, на которой мозг может полностью обрабатывать сменяющиеся кадры: 140, ну 150 Герц. Всё что находится выше уже не может полноценно обрабатываться мозгом и потенциально может вызывать дискомфорт. Именно по этой причине у некоторых людей вызывают дискомфорт OLED дисплеи с 200Гц ШИМом подсветки.
Поэтому он после 140 Гц может появиться, а пропасть лишь на 1 кГц, так как именно выше этой частоты пасуют уже глаза.

Так всё наоборот, дискомфорт появляется от слишком медленного обновления. Чем быстрее обновление, тем выше плавность и ближе картинка к реальной жизни. И 240 фпс и 240 гц ШИМ — это совершенно разные вещи, а ШИМ на 60Гц был бы просто настолько очевидно невыносим, что никто в здравом уме его не стал бы делать.


Смотрите, обновление кадров на 240гц экране выглядит так (~40мс таймлайн, каждый символ — одна миллисекунда, разные символы — разный цвет пикселя)


\\\\||||////!!!!----\\\\||||////====....


ШИМ 240гц же будет выглядеть так (. — черный экран, | — полная яркость, те же 40мс):


...|...|...|...|...|...|...|...|...|...|


Вот эти пробелы и создают неприятное ощущение и не потому, что глаз что-то передает, а потому что при движении глазами или такого предмета в поле зрения он разваливается на отдельные "скриншоты" и чувствительным людям это доставляет неприятные ощущения, дискомфорт, тошноту и утомление.


А способ отличить более высокие герцы в том, что движущийся объект на высокой частоте кадров будет сохранять чёткость и будет больше похож на объект в реальном мире — меньше блюра, меньше скачки между отдельными кадрами, как здесь: https://www.testufo.com/framerates#count=3&background=stars&pps=960

Так всё наоборот, дискомфорт появляется от слишком медленного обновления.

Нет, не так. Если у вас будет слишком медленное обновление, то начиная с определённого порога кадров в секунду мозг будет рассматривать это как набор картинок, а не непрерывное изображение. Ну и плюс от лагов, фризов и плавающей частоты будет дискомфорт у геймера, но это по другому каналу.
И 240 фпс и 240 гц ШИМ — это совершенно разные вещи

Ну да, совершенно верно. Одно это частота кадров в секунду (или скорость в футах в секунду), а другое это широтно-импульсная модуляция.
а ШИМ на 60Гц был бы просто настолько очевидно невыносим, что никто в здравом уме его не стал бы делать.

Как вам сказать… Лампы накаливания, например. Мерцание там компенсируется инерцией спирали накаливания. Электролюминисцентные лампы из-за выпрямителя работают на 100 Гц, например.
ШИМ 240гц же будет выглядеть так

Кажется, вы не очень ясно себе представляете что такое ШИМ. Вы сейчас показали пример для 25% яркости экрана. Так сильно уменьшать подсветку ШИМом явно никто не будет.
а потому что при движении глазами или такого предмета в поле зрения он разваливается на отдельные «скриншоты» и чувствительным людям это доставляет неприятные ощущения, дискомфорт, тошноту и утомление.

Не разваливается он на отдельные скриншоты. Мозг по прежнему формирует единую картинку из движения, но при этом не может полноценно обработать моменты с выключенной подсветкой, в итоге перенапрягается и начинает вырабатывать выходной сигнал «дискомфорт». Потому что глаза это мерцание заметить могут.
А способ отличить более высокие герцы в том, что движущийся объект на высокой частоте кадров будет сохранять чёткость и будет больше похож на объект в реальном мире — меньше блюра, меньше скачки между отдельными кадрами, как здесь:

Я выше уже сказал: мозг (по крайней мере обычного человека) не будет способен в полной мере обрабатывать картинку с частотой выше 140 Гц. Поэтому всё то, что выше 140 Гц с точки зрения восприятия именно целостности будет неотличимо.
Вы сейчас показали пример для 25% яркости экрана. Так сильно уменьшать подсветку ШИМом явно никто не будет.

Я на своём ноутбуке примерно такую яркость и держал — если больше, то глазам уже слишком ярко. И таки да, через фотики был отчётливо виден 300Гц ШИМ

Я на своём ноутбуке примерно такую яркость и держал — если больше, то глазам уже слишком ярко.

Если честно, то я не видел пока таких ноутбуков у которых минимальная яркость была бы именно на 25%. Хотя я может и упустил, но в лучшем случае это одна треть от максимальной.
И таки да, через фотики был отчётливо виден 300Гц ШИМ

Как определили? :)
в лучшем случае это одна треть от максимальной.

Ну, я точных замеров яркости не проводил, но по ощущениям минимально возможная яркость у моего ноута ну очень тёмная — даже ночью в полностью тёмной комнате трудно что-то разглядеть (а выставление нулевой яркости выключает подсветку полностью)


Как определили? :)

Ставим достаточную выдержку (1/50 или типа того), рисуем на экране белую линию на чёрном фоне и фоткаем её, одновременно двигая фотик поперёк линии. Если ШИМ отсутствует, то получится сплошная размазня; если ШИМ есть — получится несколько чётких копий линии (насколько чётких, зависит от уровня яркости). Сравнив число получившихся линий с выдержкой фотика и сделав несколько фоток для уменьшения погрешности, можно примерно прикинуть частоту


(Здесь мог быть спойлер с примером такой фотки, но мой HDD с фотками сдох, фотика под рукой прямо сейчас нет, а на телефон сфоткать не получается по причине его кривости, эх)

Ну, я точных замеров яркости не проводил, но по ощущениям минимально возможная яркость у моего ноута ну очень тёмная — даже ночью в полностью тёмной комнате трудно что-то разглядеть (а выставление нулевой яркости выключает подсветку полностью)

Ну да, нулевая яркость иногда отключает подсветку полностью, но без промежуточных шагов. Но в целом ок, я вас понял. Погуглил и правда есть ноуты у которых минимальная яркость — четверть от максимальной.
Ставим достаточную выдержку (1/50 или типа того),

Не, всё ок. Просто я видел как люди пытались определить частоту ШИМа подсветки с помощью «включаем камеру на телефоне и смотрим в дисплей» :)
Если у вас будет слишком медленное обновление, то начиная с определённого порога кадров в секунду мозг будет рассматривать это как набор картинок, а не непрерывное изображение.

Да и эти пороги изучены ещё со времен немого кино и (внезапно) мозг воспринимает как движущуюся картинку уже начиная от 12-16 кадров, а устаканившийся стандарт в кино 24к/с был чуть ли не избыточным хай фиделити поначалу :)


Как вам сказать… Лампы накаливания, например. Мерцание там компенсируется инерцией спирали накаливания.

И какое это отношение имеет к современным проблемам с ШИМом, где пробелы ничем не компенсируются и поэтому-то и стали заметны глазом и мешать?


Кажется, вы не очень ясно себе представляете что такое ШИМ. Вы сейчас показали пример для 25% яркости экрана. Так сильно уменьшать подсветку ШИМом явно никто не будет.

А как по-вашему уменьшается яркость подсветки в современных устройствах с ШИМом? И для проверки корректности вашей интуиции о происходящем — какой по-вашему диапазон регулирово яркости в современных девайсах? Отношение минимальной яркости (чтение в темноте) и максимальной (щуримся под солнцем)? Варианты: 1:4, 1:10, 1:20, 1:50, 1:100, 1:1000, 1:1000000?


Не разваливается он на отдельные скриншоты.
Пожалуйста, не рассказывайте мне, что именно я вижу :)

Я выше уже сказал: мозг (по крайней мере обычного человека) не будет способен в полной мере обрабатывать картинку с частотой выше 140 Гц. Поэтому всё то, что выше 140 Гц с точки зрения восприятия именно целостности будет неотличимо.

Нет никакой "полной меры обработки картинки" в мозгу, на разной частоте кадров экраном будут просто воспроизводиться разные изображения из-за разницы в блюре, разницы в положениях объектов на экране и т.д. и это всё будет прекрасно видно, потому что в реальном мире никакой дискретности нет. Почитайте уже какую-нибудь существующую теорию по вопросу, прежде чем придумывать свои предположения про разделение обработки в глазах и мозгах и процессинг в "кадрах в секунду"

Да и эти пороги изучены ещё со времен немого кино и (внезапно) мозг воспринимает как движущуюся картинку уже начиная от 12-16 кадров

Вообще это связано в том числе с расходом плёнки на минуту/час.
а устаканившийся стандарт в кино 24к/с был чуть ли не избыточным хай фиделити поначалу

Эррм, не хотелось бы расстраивать, но увеличение частоты кадров в звуковом кино после немого было связано с необходимостью писать звук.
А стандарт в 24 к/с был выбран исходя из опять же расхода плёнки.
Частоты телевизионных картинок 25/30 к/с вообще связаны с частотой сети.
И какое это отношение имеет к современным проблемам с ШИМом, где пробелы ничем не компенсируются и поэтому-то и стали заметны глазом и мешать?

А чем оно компенсируется в «энергосберегайках»? :)
А как по-вашему уменьшается яркость подсветки в современных устройствах с ШИМом?

Так же как и в любом другом устройстве — скважностью.
какой по-вашему диапазон регулирово яркости в современных девайсах

Зависит в том числе и от ШИМа, так как производители прекрасно понимают эту проблему.
Нет никакой «полной меры обработки картинки» в мозгу

Ну нет так нет.
это всё будет прекрасно видно

То есть ШИМ не видно, а всё остальное прекрасно видно? Ну ок.
реальном мире никакой дискретности нет.

Собственно я про это и говорил.
Почитайте уже какую-нибудь существующую теорию по вопросу, прежде чем придумывать свои предположения про разделение обработки в глазах и мозгах и процессинг в «кадрах в секунду»

В том то и проблема, что как раз я читал. При этом эта теория никак не была связана со 100500 герцовыми мониторами. И даже сейчас эти исследования тоже есть, можете ознакомиться, но будете разочарованы.
процессинг в «кадрах в секунду»

Самое что смешное — именно в этом и измеряют в этих исследованиях. Или в герцах. Или в миллисекундах. Потому что в любом случае физически это всё сводится к «способен ли мозг обработать все изменения за отведённое время».
Результат один: если нечто, что мы видим, длится менее N миллисекунд — мы не способны это распознать целиком. И даже заметить.
P.s. я вам тут ещё пищи для размышления подброшу: в среднем в человеческой популяции не видят и не различают картинки короче 20 мс. Таким образом для многих людей хватит порядка 45 кадров в секунду. А 60 так вообще за глаза doi: 10.3758/APP.71.4.860
А чем оно компенсируется в «энергосберегайках»? :)

Поэтому они и либо ужасно мерцают и это прекрасно видно чувствительным людям, либо используют нормальные драйверы, совсем без ШИМа (или на очень высоких частотах в килогерцы)


Зависит в том числе и от ШИМа, так как производители прекрасно понимают эту проблему.

Так какой-же диапазон регулировки? Какая максимальная скважность?


То есть ШИМ не видно, а всё остальное прекрасно видно? Ну ок.

Кадры как отдельную сущность не видно, но итоговое движущееся изображение отличается при разной частоте кадров и это видно глазом.


Результат один: если нечто, что мы видим, длится менее N миллисекунд — мы не способны это распознать целиком. И даже заметить.

в среднем в человеческой популяции не видят и не различают картинки короче 20 мс

Т.е. глазом вот такую картинку увидеть невозможно и курсор мыши вообще должен становиться невидимым при движении, ведь даже на 60гц он отображается в каждой позиции всего на 16мс. Более того, при скроллинге текста он получается должен тоже исчезать для нашего зрения, так получается? Ведь каждая отдельная картинка отрисовывается меньше 20мс.
image


doi: 10.3758/APP.71.4.860

Можете дать обзор в двух словах, что именно в этой статье измеряют и обнаруживают?

Можете дать обзор в двух словах, что именно в этой статье измеряют и обнаруживают?

Серьёзно? То есть вы мне рассказываете что я не читал научные статьи по теме и при этом просите меня кратко пересказать содержимое этой статьи?
Т.е. глазом вот такую картинку увидеть невозможно и курсор мыши вообще должен становиться невидимым при движении, ведь даже на 60гц он отображается в каждой позиции всего на 16мс.

Нет, не так. Просто в обработанном изображении курсор будет где-то в среднем положении на этих кадрах. Как повезёт.
Но если при этом перемещении взять и вообще убрать курсор мышки (и даже выключить экран) на время менее 13 мс — средний представитель человеческой популяции не заметит потери бойца.
Но если вы будете дёргать мышкой слишком быстро — начиная с определённой скорости её и правда можно будет не заметить. Такие дела :(
Поэтому то я и крайне скептически отношусь к тому, что кто-нибудь из тут присутствующих будет в силах правильно выбрать между 144 и 220 Гц монитором в двойных слепых тестированиях.
Если это не пилот истребительной авиации, правда. Некоторые из них по результатам уже других тестирований, могут замечать, отображать и адекватно обрабатывать в том числе и объекты и картинки на времена вплоть до 2мс.
Серьёзно? То есть вы мне рассказываете что я не читал научные статьи по теме и при этом просите меня кратко пересказать содержимое этой статьи?

Конечно, вы кидаете одну статью из миллиона в области человеческого восприятия и ожидаете, что я потрачу полчаса-час на то, чтобы её прочитать, разобраться с методологией, разобрать что именно и зачем они измеряют и с чем сравнивают и разумная ли у них методика и имеет ли это отношение к нашему разговору, но при этом сами даже не готовы в двух предложениях описать, что именно вы в этой статье прочитали и какое ваше утверждение каким образом она подтверждает? Если это ваши правила ведения спора, то вот пожалуйста: https://pubmed.ncbi.nlm.nih.gov/ на этом сайте написано, что я прав, докажите обратное.

что я прав

Ну ок.
Единственное принципиальное отличие «недостаточной плавности картинка на 144 Гц» от «бескислородная медь улучшает качество звука» в том, что в мире действительно есть исчезающе малый процент людей, которые могут заметить разницу между 144 и 220 Гц.
О чём я и написал чуть выше)
Но если бы вы действительно читали хоть какие-то исследования, то скорее всего бы знали что в качестве единиц измерения там применяются FPS/Hz/время. Потому что это легко конвертируемые друг в друга величины.
есть исчезающе малый процент людей, которые могут заметить разницу между 144 и 220 Гц.
Если у вас есть под рукой 144Гц монитор, то попробуйте поделать быстро горизонтальную «восьмёрку» курсором на белом фоне. Если я не попал случайно в этот самый «исчезающие малый процент», то и вы увидите довольно чётко отдельные положения курсора.
я вам тут ещё пищи для размышления подброшу: в среднем в человеческой популяции не видят и не различают картинки короче 20 мс
Посиди несколько минут в тёмной комнате, после чего включи на 1мс в ней свет. Будешь сильно удивлён результатом.

У человека — аналоговое зрение, и оно вполне способно различать даже отдельные фотоны.
Да что там вспышки 1мс, люди видят стробоскопический эффект ШИМа до 10кГц, но нет, оказывается в мозгу какой-то есть по-кадровый процессинг, который ограничивает восприятие картинок до 20мс :)

Р — релевантность.
Непонятно какая группа людей непонятно какого возраста видела/осознавала (а это точно научное исследование?) мерцание натриевой газоразрядной лампы высокого давления мощностью 250 Вт с вероятностью 0...20% :)
даже отдельные фотоны.

Ух, надо срочно останавливать разработку приборов ночного видения, тем более там прогресс уже достаточно давно встал)
я максимально чётко обозначил границу, на которой мозг может полностью обрабатывать сменяющиеся кадры: 140, ну 150 Герц. Всё что находится выше уже не может полноценно обрабатываться мозгом и потенциально может вызывать дискомфорт

Почему же дискомфорт? Наоборот, дискомфорт отсутствует когда мозг/глаз перестаёт различать кадры и видит непрерывный видеопоток. В реальности "кадры" то меняются за планковское время но мозг от этого не вскипает ведь. Так что да, от герцовки выше 144 пользы маловато, но вреда и дискомфорта уж точно нет (при том же качестве изображения конечно, многие высокочастотные мониторы грешат плохой цветопередачей и ШИМом).

планковское время

так в том и проблема, что они не меняются.
Почему же дискомфорт?

Ну конкретно в нескольких исследованиях, в том числе вроде и в том, на которое я давал ссылку в этом треде, была эта информация.
ШИМом

Как связано наличие/отсутствие ШИМа в подсветке (и его частота) и герцовка монитора? :)
Большая зависимость от углового размера изображения (от размера экрана). Чем больше экран, тем лучше видна прерывистость движения.
Большая зависимость от углового размера изображения (от размера экрана). Чем больше экран, тем лучше видна прерывистость движения.

Угловой размер изображения и размер экрана это таки две разные величины. Связаны они будут лишь при неизменном расстоянии до монитора (что, к слову, тоже может быть не очень физиологично и вызывать дискомфорт).
Но вы в данном случае говорите о переферийном зрении (для которого важен как раз таки угловой размер), которое и правда может работать чуть быстрее основного поля, так как там и так часть информации скипается мозгом на «дефолтных настройках». Но работать это будет лишь на участках работы периферийного зрения.
Связаны они будут лишь при неизменном расстоянии до монитора
А смысл покупать монитор побольше, и ставить его подальше, оставляя тот же угловой размер? Люди вольны конечно так делать, но всё же кажется, что многие покупают мониторы больше, чтобы получить большую площадь (и я в их числе)
А смысл покупать монитор побольше, и ставить его подальше, оставляя тот же угловой размер? Люди вольны конечно так делать, но всё же кажется, что многие покупают мониторы больше, чтобы получить большую площадь (и я в их числе)

Чтобы вместить на них больший объём информации(большая площадь же). Или чтобы увеличить комфортное расстояние для просмотра. Или чтобы уменьшить вертикальные/горизонтальные прокрутики.
То есть чтобы увеличить физические размеры или сохранить угловые.

Если купить побольше, поставить подальше, сохранив угловой размер — то почему будет больше информации входить?

Если купить побольше, поставить подальше, сохранив угловой размер — то почему будет больше информации входить?

В моём случае потому что теперь текст и окна там масштабируется не за счёт рендеринга в более высоком разрешении с последующим даунскэйлом и выводом в штатное разрешение монитора; а рендеринг в штатном и вывод в штатном.
Ну и как бы «из коробки» у винды нет варианта рендерить в масштабе, меньшем чем 100%.
Ну и да: рендерить в большем разрешении, а потом даунскэйлить до меньшего это в любом случае ущерб резкости.

Т.е. вы в конечном итоге просто уменьшили элементы интерфейса и размер текста, а то, что новый монитор больше и стоит дальше — это такой physics based даунсемплинг просто? :)

Т.е. вы в конечном итоге просто уменьшили элементы интерфейса и размер текста, а то, что новый монитор больше и стоит дальше — это такой physics based даунсемплинг просто? :)

Ну типа того, да. С рендерингом и отображением в нативном разрешении.
Именно для этого и покупался большой монитор в этом случае.

Не обессудьте, но кажется, что это какой-то редкий случай среди причин покупки мониторов большего размера :)

Угловой размер изображения и размер экрана это таки две разные величины — Верно. Связаны они будут лишь при неизменном расстоянии до монитора — Не верно. Я не знаю, вроде бы очевидная вещь: чем дальше объект, тем меньше его угловой размер. Они ВСЕГДА связаны, связь прямая: дальше объект, меньше его угловой размер. Вы, видимо, хотите сказать, что размер объекта и его угловой размер меняются произвольно при изменении расстояния? Я не знаю, как это работает в вашей голове, но речь не об этом.
Важно, что большой и маленький монитор на одинаковом расстоянии потребуют разной частоты обновления изображения для создания одинакового восприятия движущихся изображений. Чем больше изображение, тем больше будет расстояние между точками отображения объекта, который «движется» по экрану. На экране смартфона кино в 24 к/с выглядит более плавным, чем на пятидесятидюймовом телевизоре. Поэтому, в частности, пришлось придумывать «уплавнители» картинки.
. Вы, видимо, хотите сказать, что размер объекта и его угловой размер меняются произвольно при изменении расстояния? Я не знаю, как это работает в вашей голове, но речь не об этом.

Элементарно работает. Увеличивая размер объекта и отодвигая его, мы сохраняем его угловой размер неизменным. Увеличивая размер объекта и не перемещая его мы увеличиваем его угловые размеры. Не трогая размер объекта и пододвигая его мы увеличиваем его угловые размеры.
Именно об этом я и написал.
Важно, что большой и маленький монитор на одинаковом расстоянии потребуют разной частоты обновления изображения для создания одинакового восприятия движущихся изображений.

Нет не потребуют, пока не будет задействовано периферийное зрение.
На экране смартфона кино в 24 к/с выглядит более плавным, чем на пятидесятидюймовом телевизоре.

Зависит от угловых размеров и того и другого. Но в общем случае нет.
Поэтому, в частности, пришлось придумывать «уплавнители» картинки.

«Уплавнители» картинки появились как следствие желание получить 100500 кадров в секунду при непонимании матчасти. Ну то есть в следствие маркетинговых запросов.

Ещё автор забывает упомянуть о цветопередаче этих быстрых мониторов.

Разработчики идоты, потому что не могут осилить 144 герца В 4К. Вот тупорылые уроды. *сарказм*.
А то что у нас там 8 миллионов пикселей рендер которых надо уместить в 0.007 секунды — это пофиг. И 8 миллионов если у нас идеально отработал клиппинг. А клиппинг у нас тоже в эти 0.007 секунды входит.
Ну да, ну да. Это разработчики тупые уроды, а не пользователи охренели со своими запросами.

UPD: Ну и в целом автор несет ахинею.
Причина дефицита не в том, что все хотят карты. А в том что их нет.
В Россию всех типов 3080 на момент старта продаж завезли 110 штук. НА ВСЮ РОССИЮ.
Вот вам причина дефицита.
Ладно 8 миллионов пикселей, так эти игроки ещё 16x FSAA какой-нибудь хотят, так что каждый пиксель нужно ещё и не один раз отрендерить :)
Причина дефицита не в том, что все хотят карты. А в том что их нет.
В Россию всех типов 3080 на момент старта продаж завезли 110 штук. НА ВСЮ РОССИЮ.

У меня тут есть скриншот из одного норвежского магазина, весьма показательно
image

Согласен, но с разработчиков тоже не стоит снимать вину. За последние годы состояние игр которые релизят сильно отличается (в худшую сторону) от того что было раньше. Считается нормальным релизить сырую игру, а потом выпускать патч за патчем чтобы фиксить баги, которые должны были быть пофикшены до релиза.

Тут я с вами спорить не могу. Но забагованность игр и спрос на карты — вещи малосвязанные.

Ой да ладно. Помнится, я такое нытье читал уже в Game.EXE образца 2001 года. Собственно как только появилась техническая возможность делать и сравнительно легко доставлять патчи пользователям, так и пошла эта тема с патчингом того, что не успели сделать до релиза.

К тому же сейчас (за последние 20 лет) сильно изменился способ продажи игр. Когда продажи были дисками, то после выхода диска уже ничего не исправить (а издатели и тогда хотели "вчера" и "побольше" — это не изменилось). То есть не было ни финансовой мотивации сделать еще лучше, ни, собственно, вменяемого канала доставки до игрока. Ну и, соответственно, исправлялось только в ОЧЕНЬ удачных играх. Сейчас часто носителя нет совсем, а игры так или иначе приносят доход не только в момент установки, да даже если не приносят деньги, то патч не будет стоить производства нового тиража. Поэтому новые версии технически можно клепать хоть раз в неделю.
Да, так при выпуске игры можно пойти разумные на компромиссы по производительности, но можно и починить их, если будет пользователь. Грань здесь достаточно тонкая, конечно, но того кошмарного "выпустили DVD, защитили от копирования, продали, а там критическая ошибка в конце игры" — этого теперь нет.

Ах эти косорукие разработчики игр. Пишут эти игры своими косорукими руками. А вот не писали бы — не было бы ажиотажа, нормально бы все было.


Давно такого бреда не читал.

Вот, последние годы от презентации к презентации мелькают Fortnite, Call of Duty, Battlefield, Apex Legends, Control — короче, все те игры, которые на максимальных настройках графики делают видеокарте больно

простите, что?
Fortnite, Apex Legends — чистый мультиплеер с батлроялем. Их никто не будет делать так чтоб они делали видеокарте больно. Их цель — нормально работать на как можно большем числе машин. Фортнайт это вообще мультик, он на встроеной видяхе должен на ультрах идти
Call of Duty, Battlefield — понятия не имею. Но если судить по видосам на ютубе, больно пятая батла делает только глазам игроков.
Control — вообще коридорные побегушки в закрытых помещениях, чему там болеть? Чай не опенворлд на пару километров отрисовать.
В Сontrol чертовское количество всякой движущейся лабуды, прям очень
Выше уже написали что в Control просто дикое количество всего в кадре. Плюс рейтрейсинг там нагибает карту просто дико так как очень много отражающих поверхностей как раз из-за побегушек в закрытых помещениях. По сути Control — первая игра, которая изначально разрабатывалась с учетом рейтрейсинга.
хорошо, с контролом убедили, был не прав.
Ну как сказать. Control. Пресет «высокие». 1440р. 5700xt. Интересно, что там болеет?
Control
image
Так у Вас лучей нет. Если взять аналогичную видеокарту от NVidia — RTX2070Super и включить лучи, то в 1440p будет фпс будет немногим больше 40.
Прекратить порочную практику «тяп-ляп и в проду, а Nvidia потом выкатит оптимизационный патч»
Nvidia объявят, что разработчики игр ведут себя, мягко говоря, нехорошо, и забили болт на оптимизацию
выступит против творящейся в игровой индустрии вакханалии
А Вы точно осознаете, сколько GPU нужно выполнить вычислений, что бы сгенерировать качественное по современным меркам изображение (напомню, даже на «устаревших» 60 Гц на это есть всего 16 миллисекунд)? Или просто нужно было срочно написать какую-нибудь желтуху?
Это не низкая культура разработки, а грёбаная кроссплатформенность. Когда игра должна работать на целой пачке различных девайсов, под каждый из которых по уму бы надо писать собственную процедуру рендеринга, код начинает выглядеть жутковато, да и отлаживается плохо.
И чем больше ассортимент устройств, на которых планируется запускать игру, тем хуже она будет работать на каждом из них.
Конечно, разработчики могут заранее ограничить круг поддерживаемых устройств, заявив к примеру, что игра заработает только на платформе x86, только под Windows 10 с DX12 и только на карточках NVidia (AMD, Intel — лесом) серий не ниже 2080Ti. Тогда всё будет быстро. Но во-первых геймеры же первыми взвоют, что разработчики охренели для любого тетриса топ-девайс требовать, а во-вторых, это ещё и плохо скажется на продажах игры.
А ничего, что консоли в том числе уже уходящего поколения (PS4, XOne) — это x86-машины на основе железа от AMD, принципиально никак не отличающегося от компьютерного (просто подустаревшего), а грядущие и тем более будут по сути кастомными потоково собранными компьютерами узкого назначения на основе тех же Zen 2 и Navi, что и десктопное железо уходящего поколения от AMD? Какие там беды с кроссплатформенностью?

А видеокарточки — так универсальные графические API мало того, что давно изобрели, так к ним уже давно все привыкли, и спускаться ниже — это больше геморроя для геймдева, а не меньше. Драйвера обеспечивают совместимость видеокарт (и их низкоуровневой архитектуры) с этими API, которые все юзают — DX12, Vulkan.
В консолях, по крайней мере текущего и выходящего поколения, объединённая быстрая память, и это сильно отличается от ПК, где есть сравнительно небольшой объём GPU памяти и большой сравнительно медленной системной.
>сравнительно небольшой объём GPU памяти
Сейчас на ГПУ среднего и выше ценовых сегментов ставят 6+ ГБ памяти исключительно.
У меня 1650 Super и 4ГБ. Нда уж, больше 15 тысяч и «начальный» сегмент.
Ах да, этого всё равно мало. У PS5 16ГБ объединённой памяти.
Давно таких редкостных базарных потоков мыслей не читал. Интересно, высока ли корреляция с качеством услуг дата-центра, под аккаунтом которого сей текст опубликован.

Вот тоже хочется сказать: "не надо русский насиловать язык так". Какая- банальная неспособность сформулировать свои утекающие мысли.

Комментировать поток мыслей по основному тезису статьи не буду — здесь уже достаточно комментариев на эту тему. Автор живёт в какой-то параллельной реальности.


Но вот что эти карточки только для игр, а не для вычислений — это ещё один миф. Те кто не сидят в облаках и кому нужно тренировать нейросети вполне себе используют consumer-grade GPUs — это в разы дешевле с минимальными просадками по производительности в single и half precision по сравнению с топовыми "научными" GPU.
Мы в какой-то момент закупились 1080ti в наши сервера и это покрыло требования целого рисёч юнита в GPU вычислениях.

1080ti в сервера?
А как у вас дела обстоят с лицензированием драйверов на nVidia в серверах?)

А с этим есть какая-то проблема? Мы ставим CUDA с официального сайта на линукс и считаем свои сетки. Если там есть какие-то ограничения, то нам о них никто не рассказал.

Ну так мы же не датацентр. И вообще сомнительно что без явного определения что является датацентром они смогут кому-то что-то предъявить в суде по этому пункту.


Но сам факт существования таких пунктов показывает насколько сообществу нужны решения с опенсорсными драйверами — а то купил железку, а пользоваться ей можно только по велению левой пятки компании производителя и только в правильную фазу луны.

Желтушные заголовки — заслуга не администрации хабра, а косоруких авторов статей.
Недавно купил RTX 2080Ti для расчетов, буквально в начале года. Сейчас бы купил и 3080.
Я бы тоже купил бы 3080, потому что у меня её нет, а она мне нужна.
Если не секрет, зачем нужны эти 60fps?
Обычно все оправдания сводятся к «ну вот посмотри белый круг на черном фоне скачет, видишь в 60fps плавнее». опустим в сторону холивар о том, сколько людей реально видят разницу 30/60, а сколько верят, что видят (это на 2000 комментов тут будет), вопрос, окей, разница предположим есть, она действительна стоит чтобы переплачивать и гнаться за прогерссом и тп? 8к эти тоже у меня вызывают смех до колик, т.к. не на всяком видео я 720 от 1080 отличу (окей, на каких-то возможно, но в среднем по палате — нет).
Так для чего эта гонка? для собственного успокоения «я теперь не вижу разницы между 100фпс и 1000фпс»? что плохого в том чтобы видеть низкий фреймрейт? Это кому-то эстетику ломает?
На такую постановку вопроса единственный ответ — потому что есть люди для которых 30 fps недостаточно плавно и портит впечатление от контента. Хотя кроме fps есть еще одна не менее важная величина про которую не часто вспоминают — frame time.
Я понимаю что «недостаточно плавно», я не могу понять «портят впечатление». Люди смотрят мультфильмы в 12фпс а то и меньше, и вроде все наслаждаются. ну да ладно. Допустим, такой феномен существует, отрицать не стану. Неужели таких людей действительно так много, что на них прям работает вся индустрия? Или это какая-то искусственно разогретая потребность?
(ниже кста комментарий habr.com/ru/company/dcmiran/blog/524256/#comment_22211096 как нельзя в тему — купил 60 фпс но блин фильмы все 24. действительно, почему)

Так может наоборот, вы — феномен, что не понимаете ценности плавного изображения.

Одно дело просто смотреть, и совсем другое взаимодействовать с контентом, концентрируясь на нём, а зачастую ещё и сорвенуясь с другими игроками в эффективности и скорости этих взаимодействий.
Неужели таких людей действительно так много, что на них прям работает вся индустрия


Мне кажется ответ на этот вопрос очевиден если вспомнить что релиз новых процессоров amd и видеокарт nvidia всегда сопровождается тотальным отсутствием оных на полках в течение нескольких месяцев. Опять же — где-то около половины пользователей Steam владеют видеокартами без проблем выдающие 60fps. А это около 11 миллионов человек.

А еще есть шлемы виртуальной реальности где от fps меньше 70-80 банально мутить начинает.
Ну лично я между верхними двумя полосками разницы не вижу)
Сфокусируйтесь на НЛО на первой полоске и на второй, там довольно очевидно всё.
30 фпс это боль. Годится только для интерактивного кинца или как компромис в портативных консолях с небольшим экраном (тех, которые преимущественно с сине-красной расцветкой). 60 кадров это действительно некий минимум комфортного восприятия картинки большинством глаз и мозгов. У меня ощущение, что вы ни разу не играли с 60 фреймами, ибо банально не нужно напрягаться и присматриваться чтобы запросто заметить разницу. А после этого 30 кадров воспринимаются чуть ли не как слайд-шоу.

Хм! А я понял! Это как с Hi-Fi аудио! Вот средний человек или разницу не услышит или будет слушать музыку. А аудиофил будет слушать шумы!!!
Так и здесь — и лаги и фреймдропы я на своём достаточно бюджетном оборудовании спокойно терплю — нет, есть игры, где хочется картинку, согласен… и будь времени на игры побольше, я бы, вероятно, раззорился на среднюю игровую станцию… но если не гоняться за киберспортивными достижениями в активных играх мне хватает моих слабеньких 30-60 фпс. Просто потому, что я познакомился с играми ещё в 90х при очень слабом на тот момент железе. И там было — или 10 фпс, или вообще никак.

Ну сравнение с аудифилами с их шумами все же не совсем корректно, это все же психоаккустика в которой все крайне индивидуально. Более наглядным примером было бы — 30 fps это как mp3 в 64kbps, а 60fps это как mp3 в 192kbps. Слушать можно и то и другое, но 192 как-то по-приятнее звучит без всех артефактов присущих 64.

Судя по тому, что я тут прочитал от владельцев — в лучшем случае это 128кбпс против 192. Вполне терпимая разница, да. Классику лучше в таком виде, наверное, не слушать (ширины диапазона может не хватить), но аудиофилы-то вас и за 192 затопчут.

Хм! А я понял! Это как с Hi-Fi аудио!
Это как с бизнес-ланчами. Вот есть чуваки, которые ходят в ресторан, ну или заказывают всякую дорогую нямку. Но можно же из помойки возле макдака достать пол-гамбургера и слопать! Средний человек так наверное и делает. Непременно будьте как средний человек.
Прям по Пелевину сейчас, человеку просто необходимо выпендриваться уровнем своего потребления. «О, смотрите. У меня монитор 8К. 60фпс. я ем еду дорогую из ресторана. Я не средний человек! Я успешный. Я молодец. Тёлки, давайте мне» и это вот всё.
А вы как из «Нормы» Сорокина. (Зато мы оба клёвые и начитанные.)

Мониторы же нынче стоят копейки, я у локального ретейлера буквально самый дешевый QHD брал по скидке, так он 144 Гц. В начального уровня игровых лаптопах из веточек и желудей мониторы 144 Гц и выше (например).

Я бы понял этот стон на форуме многодетных матерей-одиночек, но мы ж на хабри, тут вроде программисты всякие. Уж на пожрать да компьютер купить им (нам) точно должно хватать.
начального уровня игровых лаптопах из веточек и желудей

Ноут по ссылке — 125 тысяч. Ничего там у вас начальный уровень.
Вы знаете, не все обитают в Москве. Или в Израиле (если судить по вашей ссылке).

Игровые ноуты в принципе дорогие. В Израиле ещё дороже, поставщики охамели.

С другой стороны, новый айфон сколько стоит в РФ, тысяч 70-80? Игровой ноут от именитого бренда дешевле двух смартфонов же, получается.

В сравнении с айфоном любой ценник не так плох. :)
В сравнении с айфоном любой ценник не так плох. :)

По сравнению с некоторыми топами на андроиде и нормальный игровой ноут не плох.
сколько людей реально видят разницу 30/60

Так запустите сами и посмотрите разниц, зачем рассуждать теоретически когда за минуту можно проверить
www.nvidia.ru/coolstuff/demos#!/g-sync
Спасибо, крутая ссылка! поскачивал, покрутил слайдеры. Для себя опытным путем и пристальным вглядыванием установил что выше 35fps я ничего различить не могу гарантированно. Если постараться, то между 30 и 35 иногда могу заметить, да. но вот 40/60 например — увольте.
Хм! А я понял! Это как с Hi-Fi аудио! Вот средний человек или разницу не услышит или будет слушать музыку. А аудиофил будет слушать шумы!!!

60 и 144 это скорей как разница в наушниках за 100-200р и наушников за 2-5т.р. Пока ты сидишь в наушниках за 200 — ты можешь не слышать басов и думать, что это нормально — основную мелодию же слышно! Но если человека пересадить с нормальных наушников на дешёвые — басов ему будет уже не хватать.

Если в играх активно вертеть башкой, то 60гц после 144 будет восприниматься скорей как болезненное мельтешение.

но если не гоняться за киберспортивными достижениями в активных играх мне хватает моих слабеньких 30-60 фпс

Есть понятие комфорта. 30-40 фпс это нифига не комфорт и дело тут не в киберспорте.
Понятие комфорта вырабатывается на основе пережитого опыта. Если человек 40 лет сознательной жизни смотрел мультфильмы в 12фпс, то ему нет разницы между 30 и 60. Вы еще древнему греку покажите эти видео, что там ему комфортнее. Так и тут, вы хотите себе оправдать что покупка более дорогого оборудования стоило того, поэтому любые незначительные детали будут вас бесить и вызывать дискомфорт. Хотя видеть вы их будете 1% времени.

Правильно, хороший вкус это не что-то естественное, свойственное человеку от природы, а зачастую что-то контринтуитивное, что-то что воспитывается специально. Конечно, когда у тебя проблемы в жизни заключаются в выборе между лапшой и картошкой на обед, тут уже не до воспитания вкуса к устрицам. Так и тут — покупку дорого оборудования нужно "оправдывать" только перед кем-то для кого эта разница несущественна от незнания или безразличия, для себя можно просто наслаждаться. Почему вы думаете, что будет именно так, что привыкшие к хорошему будут беситься от незначительных мелочей? В реальности, можно каждый раз просто наслаждаться тем какое у тебя всё кайфовое.


В жизни много таких вещей, где улучшение на 1% тут, на 5% там, складывается в реальную и радикальную разницу в комфорте. Тот же компьютер — у одного это "просто комп", у другого всё выбрано со вкусом и под себя. И вроде никакой принципиальной разницы нет — и там и там можно открыть хабр и начать холивар, но один чуть-чуть шумнее (и это незаметно давит на мозг, замечаешь когда выключаешь "как же тихо стало"), чуть-чуть менее красив (не думаешь каждый раз "блин, какой же у меня клёвый и красивый комп" и не радуешься сам себе две секунды), чуть похуже монитор ("нафига эти триста герц? Видно и ладно"), чуть похуже мышка (курсор же ездит, какие проблемы? В смысле беспроводная без инпут лага удобнее? Какая разница сколько там грамм и как скользят ножки?), чуть меньше памяти (А ты не открывай столько вкладок), чуть медленнее диск (а нафига мне nvme? Гигабайты что ли копировать каждый день?), и чуть меньше (Просто переноси всё большое на другой жёсткий диск и всё) и так далее. И в итоге у одного "просто норм железка", а другой радуется этим мелочам каждый день.

Здорово вы описали, кстати) Я искренне завидую людям, которые могут радоваться мелочам. У меня, к сожалению, такого нет.
Так и тут, вы хотите себе оправдать что покупка более дорогого оборудования стоило того, поэтому любые незначительные детали будут вас бесить и вызывать дискомфорт. Хотя видеть вы их будете 1% времени.

Монитор 27~ 144 чуть больше среднего смартфона стоит — не такая уж это как бы и роскошь. 144гц легко определит слепым тестированием любой человек, в отличии от разницы в звуке от золотых проводов.
Монитор 27~ 144ГГц 4к стоит как крыло от Боига ))

Разве что от модельки боинга 1:1000 :)


Такой из достойных мониторов вроде только один и стоит он около штуки баксов, не сказать, что прям запредельно дорого (дешевле айфона или сабжевой видеокарточки), но и вышел-то он буквально на днях.

штуки баксов, не сказать, что прям запредельно дорого

Это запредельно дорого ((
но и вышел-то он буквально на днях.

Да и до этого были, ваш не первый. Я бы взял 30 дюймов, 27 наверное уже мало будет ))
Это запредельно дорого ((

Печально слышать.


Но для себя я такие покупки вполне оправдываю тем, что это мне минимум лет на пять, а значит это всего 15 баксов в месяц, за пять лет удовольствия — вполне стоит того, а если есть вероятность продать за 50% от цены, то вообще 8$ — а это что-то вроде двадцати минут профессиональной деятельности разработчика за этим монитором.

Банально на Яндекс маркете с соответствующими параметрами мониторы от 100к рублей.
По вашей ссылке 2k мониторы — они дешевле.
А 4к я не заметил. Такие мониторы еще рано брать, стандарты еще только доделываются.
Я и не говорил про 4к.

144 и 4к это конечно уже совсем другой сегмент и мне сложно представить пепелац (и его цену), который бы выдавал 100+фпс на 4к.
3080 в некоторых играх выдаст, msrp $799.
в некоторых играх

Пасьянс косынка, Солитёр?
Гораздо больше чем вы думаете. Многие ААА до 2015, АА и инди.
Всё так и есть, но аудитория Хабра это скорее по большей части любители HiFi =)
Дело в восприятии плавности движения.


Игры в 60 FPS были стандартом с самого зарождения игровой индустрии, потому что чисто технически сделать меньше было сложно — у первых игровых платформ не было буфера кадра, приходилось формировать графику прямо во время хода луча. И до прихода 32-битных приставок с 3D графикой 60 FPS оставалось стандартом, а после прихода — желанным но технологически трудно достижимым на тот момент, постоянно обсуждаемым в прессе качеством, т.к. игроки уже привыкли к хорошему и видели разницу.

Не-игроки разницу вполне видят, хотя и не особо интересуются, в чём она заключается. В кино исторический стереотип 24 кадра, который ощущается как киношность, в то время как в видеозаписи опять же 60 кадров — и зритель легко отличает кинофильмы от новостных выпусков, а если кино снято с высокой частотой кадров (Хоббит), это ощущается ими как гиперреализм, не-кино.
60 FPS даже в ранние годы был не везде.
Где-то он был реально достижим. Приставка NES была очень удачной, в 60 FPS шли почти все игры.
А на ZX Spectrum 60 FPS были только в демо. В играх частым явлением было 12-15 ФПС. А иногда были просадки до 5-6 ФПС, когда что-то красиво взрывалось. Savage и Exolon очень хорошие примеры.
Просадки были даже у аркадных автоматов, хотя это встречалось не так часто.
И даже когда уже хорошо освоили аппаратное ускорение спрайтов, вышла приставка SNES. Там ФПС был очень нестабилен, из-за чего многие одинаковые игры (особенно порты с аркадных автоматов) на Сеге Мегадрайв были с бОльшим ФПС и обладали большей детализацией чем на SNES.
В основном самые продвинутые аркадные автоматы (Capcom, Namco, NEO-GEO) выдавали самую лучшую картинку — большие спрайты или очень много небольших, хорошая анимация, честные 60 ФПС.
А при переходе к 3D честные 60 ФПС были только на аркадах и топовых ПК, это да.
Все Диззи действительно работали ровно 12 фпс, т.е. один кадр из четырёх. Разумеется мы собирались написать «свой собственный диззи», поэтому я в те времена ковырялся в движках.
Игровая индустрия всё же не с ZX Spectrum начиналась. Он — один из самых бюджетных компьютеров в истории, с на добрую половину-две трети вторичным софтом (портами с аркад, мультиплатформой). Видеожелеза кроме сканера растра там не было совсем, всё рисовал процессор, а буфер растра был — конечно там не было 50 FPS, и процессор не мог успеть, и жизненной необходимости успевать не было. Поэтому там были стандарты на 2 (редкость) 3, 4, 5 обновлений экрана — 25, 16, 12, 10 FPS. Последнее в тех реалиях считалось приемлимым.
А что за «стандарты» на обновления экрана? Это так заранее старались организовать работу движков, чтобы избежать тиринга? Я помню, что тиринг был частым явлением, и во многих играх ФПС был нестабилен. В Saboteur 2 так вообще даже на статичном экране спрайты разваливались.
Это, конечно, не промышленный стандарт, спущенный сверху, что надо делать вот так. В отличие от 'серьёзного' геймдева, т.е. аркад и консолей, домашние компьютеры той поры выживали за счёт стихийной разработки, в основном студентами за еду. Получалось у них как получалось, поэтому во многих играх и FPS нестабилен, и присутствуют артефакты, и множество других проблем. Но стихийно же сложилось, что если использовать синхронизацию с началом кадра, которая использовалась часто (чтобы как раз избежать тиринга или выводить спрайты без теневого буфера), рендер в игре будет укладываться в некоторое количество кадров, которое обычно старались держать стабильным. Отсюда 50/2=25, 50/3=16.7, и так далее. 25 FPS было труднодостижимо, мало кто замахивался на такую скорость рендера (Cobra, Ghosts & Goblins, Zynaps). Обычно рендер шёл 3-4 кадра, но бывало и больше.
Я так понимаю, что алгоритмы обновления экранной области были оптимизированы очень по-разному?
Например, если фон был динамическим, то на некоторых движках течение 1-4 кадров выполнялись все процедуры движка, кроме записи в экранную область, а затем в 1 кадр старались уместить обновление экрана?
А если фон был статический, то перезапись областей экрана могла быть разнесена по разным кадрам? Например в Myth было 25 ФПС, но обновление разных элементов происходило по очереди, примерно раз в 3-4 кадра. Перемещения разных врагов отрисовывались в разные кадры, в разные кадры также попадали разные группы анимаций — воды, огня, вспышек, перекрашивание атрибутов и т.д. Как раз из-за этих особенностей игра выглядела очень плавной и красочной.
Есть три основных варианта скролла: в теневом буфере; прямо в экране (с пропуском пустых мест или всё подряд); или вообще без скролла, с полной перерисовкой фона с попиксельной точностью (используются заранее сдвинутые на нужное кол-во пикселей блоки). Пожалуй, в играх были все возможные варианты реализации всех вариантов. В том числе и когда весь рендер идёт в теневой буфер, а потом буфер быстро кидается на экран, и когда рендер спрайта на неподвижном фоне идёт в мини-буфер размером в спрайт, чтобы избежать мерцания (из экрана в буфер, в буфере наложение спрайта, потом обратно буфер на экран), и когда рендер идёт за лучом или перед ним, чтобы точно не пересечься. Или сначала перед лучом, а потом за, избегая попадания под луч.

Насколько я помню, в буфере делает прокрутку Chronos; прямо в экране R-Type; полная перерисовка в Zynaps, Dark Fusion, Ghouls & Ghosts.

Некоторые техники позволяют получить и 50 FPS, но этого добились уже после коммерческого заката платформы, в основном в отечественных играх. Это, конечно, достигается за счёт сильных ограничений, например, очень малое кол-во разных элементов в прокручиваемом фоне, либо сплошная заливка фона с прокруткой только его краёв.
Как меня, в последнее время, раздражает эта мода на «киношность». Да, где-то motion blur, смотрится уместно, но, в активных сценах это или постоянное мыло или дерганная картинка.
Я уже не говорю про то, что многие пытаются любительские (youtube) ролики снимать в 24 кадра. При этом явно не понимают, что для получения «нужного» эффета необходимо очень аккуратно работать с экcпозицией и светом. Результат же — слайдшоу. Зато модно c выкрученными, нереальными цветами.
Даешь стабильные 60fps !)
Это как воздух — не замечаешь, пока он есть. У меня однажды монитор свалился в режим 30гц по какой-то причине и я несколько дней не мог понять, что у меня с компьютером — текст скроллишь, а он тык-тык-тык по экрану, окно двигаешь — тык-тык-тык, даже банально мышкой труднее попасть куда-то (особенно если быстро через пол экрана провести), потому что между отрисованными курсорами становится по десять сантиметров и глаза натурально теряют трекинг.

Надо понимать, что у реального мира — нет никакого фреймрейта, нет fps и поэтому наше зрение и мозг приспособлены для обработки плавного изображения. Когда я двигаю бумажную страницу текста — то легко слежу глазами за любой точкой, когда я скроллю страницу в браузере, то глаза теряют точку фиксации и заново фиксируются (потому что плавное движение глаз возможно только за плавно движущимся предметом, иначе прыжки-саккады) при малом фреймрейте, или всё просто слишком размывается, чтобы продолжать читать в момент скролла при среднем. При высоком изображение выглядит +- как реальный мир.

Можно симулировать отдельные кадры в мире — включите стробоскоп на 30 герц в комнате и попробуйте в ней посидеть, а лучше активно побегать. Очень быстро появится желание вернуться к нормальному миру. 60гц уже чуть лучше, но всё равно скорее как компромисс, временное решение, пока мы были лишены ЭЛТ, а высокоскоростные ЛСД ещё не пришли.

Извините, а вы вообще играете в современные компьютерные игры?
Я прекрасно чувствую разницу в играх не то что между 30 и 60 фпс, а даже между 45-50 и 60+. Без всяких счётчиков фпс.
Много раз уже убеждался в этом — чувствую, что игра в определённый момент становится менее плавной. Включаю счётчик фпс и вижу, что частота кадров упала с 60+ до 50. Помню когда первый раз запустил Assessins Creed 4 Black Flag, то сразу был заметил отвратительную плавность картинки. Включил счётчик фпс — 40-45. Отключил PhysX, который и портил фпс — картинка сразу стала плавной, 60+ фпс.
Про 720 и 1080 — тут тоже был непредвиденный слепой тест. У меня к телевизору (40" 1080p) подключен медиаплеер WD TV Live. Как-то раз включаю плеер, сразу замечаю, что интерфейс как-то хуже отрисовывается. Запускаю фильм — качество неожиданно плохое. Фильм — 40-гиговый ремукс в 1080p. Выхожу назад в интерфейс, лезу в настройки плеера и вижу, что по какой-то причине он переключился в дефолтные 720p.

С разрешением есть особенность, что 720p изображение на 720p экране выглядит несравнимо лучше, нежели 720p изображение на 1080p экране. За счёт этого переключение разрешения на неродное гораздо заметнее становится.

Так оно же тоже не кратно 720?
3840х2160 таки кратно, х3. Оптимально вообще 8к, но про такие мониторы можно только в новостях прочитать.
А, этот «4к», который 3.8к. Не подумал.
От честных 4к там разница небольшая, и в принципе можно выводить 720 с целочисленным масштабированием, пожертвовав небольшим числом пикселей по краям.
А «3.8к» идеально отображает популярные форматы, как сам 4к (которые по сути те же 3840х2160), так и предыдущие 1080р и 720р.
60 — не нужно.
Нужно хотя бы 90. Стабильных.
Одна из причин — VR.
Либо будет 90 Hz на шлеме либо будут вытекать глаза (если будет 72 Hz — будут вытекать медленно). Не «в среднем 90» а всегда. Разницу очень даже видно. Это с учетом того что пользователь в шлеме может вращать головой и на это тоже надо реагировать как можно быстрее. И с учетом того что надо 2 картинки делать. И с учетом того что у некоторых шлемов надо еще ресурсы тратить на сжатие видео (спасибо Oculus'у за Oculus Link).

Да, сделали репроекцию (там набор методов) которая во многих играх доводит частоту до нормальной за счет интерполяций а если игра совсем тормозит — ей рубят частоту кадров в 2 раза (считая что уж 45 то движок должен выдать) и репроекция спасет.

При этом намеки что будет и 120 Hz на существующем железе — есть, например holographica.space/news/oculus-120-hz-25541

И тут я говорю про соло игры если что.
60 кадров дешевые бюджетные, ага, недавно такой купил за 130к 60 герцовый ips, для фильмов кстати 60фпс вообще красота, жаль что они все в 24 кадра выпускаются, приходится svp использовать
Плач Ярославны.

Для обоих игр буквально с момента их релиза инженеры Nvidia истерично клепают патчи видеодрайвера, чтобы хоть как-то заставить их работать.

Разумеется, ведь под новые игры ещё нет эвристик, и как оптимизировать работу GPU под них ещё предстоит выяснить. Стек очень сложный и там много чего может работать неоптимально для конкретной игры.

Скажу больше, все настолько плохо, что RTX 2080 Ti в указанных играх способны выдавать стабильные 144-190 кадров в секунду только при минимальных конфигурациях графики, но даже при этом иногда случаются дропы FPS!

???
В играх есть некий объём математики и операций которые нужно выполнить для отрисовки кадра. Хотите красиво, будет 60 фпс, а если хотите многафэпээсов, готовьтесь к тому, что графика будет попроще.
Можно и семь шапок, как говорится.

60 фпс это нативный режим большинства мониторов, телевизоров и представляет собой хороший баланс между играбельностью и сложностью графики.

Я надеюсь, что когда-нибудь Nvidia надоест тратить силы и ресурсы на выпуск бесконечных патчей драйверов, которые улучшают производительность в проблемных популярных играх.

Вы как-то забываете что разработчики игр пишут под абстрактный API и некоторая часть глюков и тормозов вызвана именно драйверами.
Компиляторы C++ пишут десятилетиями и до сих пор находятся ошибки и оптимизируют производительность, а в случае компилятора для конкретного GPU у разработчиков есть буквально несколько лет.

Выход из этой ситуации видится только один.

Нет выхода ^_^
Выход есть, автору просто нужна губозакаточная машинка. В направлении налаживания серийного производства и предлагаю направить его усилия, а статьи такие писать не стоит.
под новые игры ещё нет эвристик, и как оптимизировать работу GPU под них ещё предстоит выяснить

Эх, а как классно было бы, если б можно было оптимизировать код самих игр…

все геймеры планеты уже плавно перешли на 144 и 240 Гц дисплеи, а кто не перешел — либо мечтает перейти, либо играет исключительно в пасьянс.

Идём в статистику стим.
Популярное разрешение мониторов


TOP-10 видеокарт


Самые популярные игры


Да, пожалуй автор прав. GTX 1060 сможет в fullHD выдать 144 Hz в контр-страйке и амог ас ) Но что-то мне подсказывает, что при всех маркетинговых усилиях, мониторы 144 Hz — по прежнему экзотика.
Но что-то мне подсказывает, что при всех маркетинговых усилиях, мониторы 144 Hz — по прежнему экзотика.

А это легко проверяется. Идем на amazon и смотрим мониторы по количеству отзывов. 144Hz монитор на третьем месте.
image

На newegg в топе вообще почти нет не 144Hz+ мониторов.
В топе продаж != являются широко распространёнными. Если общие продажи составляют 1% в год (допустим) от установленной базы, а топ продаж составляет пусть 30% от всех продаж, то на получение хоть какой-то значимой доли в общем количестве установок нужно будет ждать много-много лет :)

В реальности цифры скорее всего другие, искать лень, но думаю не больше 10-20% от установленной (т.е. обновление монитора раз в 5-10лет, вполне разумное предположение, пишу эти строки с монитора 2012 года, обновляться собираюсь в ближайшие год-другой), а топ продаж скорее всего гораздо меньше 30%, может даже единицы процентов.
Скажу больше, мониторы Acer, HP и AOC. Это конечно показатель. Имели неосторожность купить один раз 28 мониторов АОС, в первые 2 года нам сервис по гарантии списал 8! из них. Проблемы с матрицей, розовит, рябит и т.д. Отломаные корпуса у ноутов Acer всплывают флешбеками в моей памяти во времена работы эникейщиком. Это производители с дна рынка, я бы себе такое не купил ни за какие деньги. У HP вообще ориентация на корпоративный сегмент больше.
На удивление, мониторы Acer сильно качественнее, чем их помойные ноуты.
Ну 1060 вполне может выдавать больше 60 фпс. Будет конечно постоянно скакать между 50 и грубо говоря 80, но всяко лучше. 20 фпс уже дают заметную разницу.
Идём в статистику стим. Про частоту мониторов там ничего нет.
Зачем приводить статистику, если в ней нет интересующего параметра?
Затем, что вы не внимательно смотрели мой комментарий. По 3 показателям статистики видно, что если у кого и есть мониторы 144 Гц, на которых игры действительно идут с такой частотой кадров, то это скорее всего довольно специфический сценарий. И фраза «все геймеры планеты уже плавно перешли» является натягиванием совы на глобус.
Нет, ну «все геймеры» это фигура речи, ясное дело.

А статистика, самая популярная видеокарта в самом популярном разрешении в самой популярной игре (1060 на фуллхд в контрстрайке) 200 фпс делает запросто, так что эта статистика скорее подтверждает гипотезу про средний фпс выше 60, а не опровергает.

Другие игры из списка, которые я знаю: Rocket League идет на любом железе вообще, а тимфортресс-2 вышла на 10 (?) лет раньше, чем 1060, так что наверное тоже работает хорошо.

Я примерно это и имел в виду: у нас нет однозначных данных, а интерпретировать те, что есть, можно по-разному.
В своём глубоком анализе обстановки автор внезапно забыл про, собственно, game loop, который «где-то там» тоже не святым духом берётся.

Забавляет ещё как пренебрежительно в каментах отбрасывают сетевой лаг даже в 2-10ms на локалке, отчётливо, тем не менее, «видя разницу» между 60 и 144 Hz. Попробовали бы лучше взять калькулятор и посчитать, сколько у тех самых «разработчиков» есть времени на I/O, логику и рендер кадра на 144 герцах.

PS: «а косоруких разработчиков игр»
и не разбирающихся в предмете авторах статей…

3080 расхватали не из-за каких-то там абстрактных 144Hz, которые сто лет в обед никому не упёрлись (люди выбирают между i5 и i3, какой ещё 144Hz-монитор???), а просто из-за того что карта — дешёвая, и быстрее 2080Ti в полтора раза. (и перекупы, конечно же)
Между 60гц и 144гц вполне может быть разница в 20-30мс и больше, если учесть всю кучу мест где обычно есть буферизация и синхронизация, а пинг в локалке 10мс — это что-то неправильное случилось с сетью, за такое время пакет может на тысячу километров слетать и вернуться, а задержки топовых коммутаторов вообще сотнями наносекунд измеряются.

В любом случае, быстрее чем 15-20мс от нажатия мышки до появления пикселей на мониторе даже на 360-герцовых мониторах и самых быстрых игрушках не происходит, всё равно в десять раз медленнее, чем «2мс» локальная сеть :)
Графика и расчеты сейчас делаются в разных потоках.
Так что нельзя объединять gameloop с рендеромпри расчете времени кадра.

Но их всё равно нужно делать, а сколько времени, я вам подскажу:
на 60Hz у вас есть 1/60 = 0.04ms для полной обработки I/O (сеть, game state, ввод игрока, загрузка моделей/текстур/звука если что-то ещё надо грузить и проч и проч), интер/экстраполяция стейтов. На 144Hz это уже 1/144 = ~0.007ms.

Это если вы хотите _действительно_ иметь то о чём пишет автор — неведомым образом отслеживать руками и попадать в бошки на 144Hz. (понятно что это невозможно, но допустим автор — робот или там муха)

В той же самой контре это всё тикает как раз с частотой server tick rate, и как вон выше заметили, она и 128-то не везде.

>>Так что нельзя объединять gameloop с рендеромпри расчете времени кадра.
Это то чего так сильно хочет автор. Мне 60 fps норм.
Пардон, 1/60 = 0.016ms.
0.04 — это 25 fps.
Еще Вы слегка перепутали единицы измерений (0.016s, или 16ms).
Ажиотажный спрос на новые карты Nvidia — заслуга не производителя, а косоруких разработчиков игр
А что, на АМД карты такой же спрос? Нет. Так может, все же, Nvidia сделали что-то хорошее?
Рано говорить о спросе на карты АМД которые еще не представили, а вот на старые поколения сейчас спрос пожалуй чуть ли не больше чем на новые жифорсы. Правда со стороны майнеров, а не геймеров.
Странное утверждение. До анонса 30ХХ тоже спроса не было на NV. Есть на АМД спрос или нет узнаем в ближайшие недели.
60FPS игровой стандарт как минимум еще лет на 5-7 по двум причинам: консоли и подавляющее большинство мониторов у пользователей. Плюс больше 60 фпс абсолютно не нужно в синглплеерных играх и ммо с пингом под 100мс. В итоге 120+ фпс нужно весьма ограниченному кругу игроков в еще более ограниченном списке киберспортивных игр.
Последнее поколение приставок по идее умеет в 4k 120 fps. Топовые телевизоры уже несколько лет имеют такой режим. По яндекс маркету ТВ 4k 120 fps начинаются от 35-40 тыс. рублей, то есть становятся вполне доступными.
Это в маркетинговых материалах они такое умеют, а на деле некстген проекты хорошо если пойдут в 4к с 60фпс. Особенно на Series S, которая с большой вероятностью станет самой популярной из некстген консолей. И разработчики естественно будут подгонять свои проекты именно под это железо. Посмотрите туже презентацию UE5 на PS5 — она вообще была с локом в 30фпс.
Что же касается оценки рынка по маркету — это бессмысленно. Естественно там будут преобладать свежие модели, но при этом их доля в общем количестве тв/мониторов на руках будет в лучшем случае несколько процентов. Все же речь о устройствах которые пользователи меняют раз в 5-10лет.
Ох, спасибо тебе Lineage 2, за шесть лет потраченных на тебя и навсегда отбитое желание во что либо играть.
Для людей, далеких от игровой индустрии расскажу одну тайну: 60 FPS уже давно не стандарт.
Зажрались эти геймеры. На моих школьных затычках 20 фпс в 800х600 было за радость!
Многое даже не запускалось, пока не пошаманишь с дебаггером (чаще всего просто менял флажок при иницализации D3D, чтобы оно переключилось на софтовый T&L).
С одной стороны я из еще более древнего времени (где-то Win95 (застав совсем реликт Win 3.1) и Win NT 4). С другой — 2k ips 144Ghz, 64Gb RAM.
И да, мне почти позарез нужен новый GPU — текущего RX580 с 8Gb (+16Gb из RAM) маловато будет.

Я к чему это все? Если ранее жилось совсем хреново (даже не про ЦП,… про дисплеи, что про память и дисковые накопители — все это полный шлак), то это не повод так и дальше жить.
Я к чему это все? Если ранее жилось совсем хреново (даже не про ЦП,… про дисплеи, что про память и дисковые накопители — все это полный шлак), то это не повод так и дальше жить.

В те времена вообще не очень хорошо жилось и моя семья долбанный сникерс на четверых членов семьи делила. Поэтому и играли с проседанием до 5-10 фпс. Да и сейчас кто-то играет с минимальным разрешением и минимумом деталей, и радуется. Лучше, чем ничего.
В те времена вообще не очень хорошо жилось

Никак не спорю, ни в коем случае.
Вместе с тем, это же не повод «не хотеть/желать лучшего»? Я об этом говорил.
И геймеров не особо могу назвать зажравшимися с этого ракурса.
Не поленился заглянул в статистику стима
62% карточек — это 1070 или СЛАБЕЕ.
Самая популярная видяха — 1060 с долей 10%
Топ 5 по полулярности:
NVIDIA GeForce GTX 1060 10,37%
NVIDIA GeForce GTX 1050 Ti 7,3%
NVIDIA GeForce GTX 1050 4,63%
NVIDIA GeForce GTX 1070 3,84%
NVIDIA GeForce GTX 1650 3,6%

Имея такой рынок — делать видеоигры под 3000 серию nVidia — безумие.
Да и моники у всех — по 60Гц выдают. Какие сотни FPS? На кой они сдались?
Имея такой рынок — делать видеоигры под 3000 серию nVidia — безумие
Обычно в видеоиграх есть настройки качества графики. Поэтому игры делают одновременно для 1000-й серии, 3000-й, а прямо сейчас даже для будущей 4000-й)
Так раньше же оптимизировали чтобы можно было играть с хорошим откликом и с лучшей графикой на том что есть на рынке, пример с тем же Quake3. А сейчас графика в играх стала настолько широкой в плане возможностей что, ну если не тянет настроил поменьше характеристики, а если хочешь больше есть выход бери новое железо. Раньше такого манёвра у рядовых пользователей не было. Опять же оптимизация это время(=деньги) компании разработчика. А любой бизнес не будет тратить бюджеты чтобы у тебя на «твоей GTX 470Ti» было что-то лучше, да и я думаю если бы игры оптимизировали, то не было бы такого роста потребностей в видеокартах, майнинг не в счёт :)
Как итог производитель игр получает релиз быстрее и за меньшие деньги, геймерам выход игрушки раньше тоже на руку, да ещё и в цене игры больше манёвра.
А производители видеокарт от спроса тоже в плюсе.
Из минусов для геймера это обновление железа. В итоге пришли к какому-то балансу…
только если Nvidia наконец-то пересилит свое желание продать как можно больше флагманских карт и выступит против творящейся в игровой индустрии вакханалии
у вас тут в слове «никогда» буквы лишние
Вообще для меня немного дико слышать, что дрова видеокарт оптимизируют под конкретные игры. А потом дико видеть, как эти драйвера весят гигабайты. С какого момента что-то пошло не так?
Ах да, по теме статьи, 4к 144ГГц стоят нереально дорого, и, как уже написали, нигде этого нет. А в выборе между 4к и 144ГГц я выбрал первое.

Так они под все задачи оптимизируются, которые предполагается решать с использованием этих ускорителей, считайте, что драйвера — это такая операционка для видеокарточки, почему она недостойна оптимизаций для наиболее распространённых юзкейсов (т.е. игр)?

Я считаю, что должно оптимизировать для всех игр, а не какие-то частные оптимизации под каждую нововышедшую игру.

Увы, мы живём в мире систем такой сложности, что нет никаких "универсальных" оптимизаций, любая оптимизация — компромисс между какими-нибудь противоборствующими показателями. И на стыке железа и софта это особенно ярко видно.

4к@144 не просто дорогие, там еще реально нужна RTX 3080, чтобы в игры играть (ну, кроме Rocket League и CSGO).

А по отдельности оно вполне доступно же, причем FullHD@144 по-моему дешевле чем 4k@60. И есть промежуточные варианты, например QHD@144 — и разрешение выше чем FullHD, и компьютер нужен не такой монументальный, чтобы шевелить этим всем.
Ну так то да. Но QHD не даёт прироста плотности пикселей при покупке большого монитора. А я себе хотел большой. Первые пару дней думал, что купил даже слишком большой, 31 дюйм )) А сейчас привык, и меньше брать не буду.

Смотрю на варианты 48" — плотность пикселей как у QHD (а у меня зрение больше и не тянет на разумном расстоянии), а размер как два 27" рядом.

>>FullHD@144 по-моему дешевле чем 4k@60

Примерно одного уровня. FullHD@144 — от 13000 р., 4k@60 — от 16000 р.
А вот 4k@144 — от 100000 р.
С какого момента что-то пошло не так?

Видимо, с момента, когда nvidia решила, что такой подход будет офигенным конкурентным преимуществом перед ati.

В комментариях уже прошлись по постулатам (140 Гц есть у любого уважающего себя игрока) и оценкам того, какая игра тормозит и где графика хорошая.


Я же хочу высказаться по поводу последнего раздела "Как это изменить". Автор почему-то считает, что одного желания Nvidia будет достаточно. Но ведь деньги платит не она! Лично я не уверен, что даже если она перестанет оптимизировать драйвера, это заставит создателей условного Call of Doom потратить больше денег на оптимизацию вылизать графическую подсистему следующей игры серии до идеала.
Автор сам говорит, что геймеры — которые покупают и игры, и видеокарты — готовы изучать гайды, шаманить и настраивать именно эти игры. Они не уходят из них стройными рядами толпами (хотя такое случалось с действительно плохими релизами).
Я не играл ни в один из упомянутых шутеров и не знаю, чем они так хороши. Но игроки покупают эти игры, готовы тратить деньги чтобы играть в них. И пока их будет устраивать сумма факторов (качество картинки+фпс — далеко не всё), издатели не будут заинтересованы вкладываться сильнее в качество кода движка.


Хотите, чтобы ситуация изменилась — агитируйте покупать игры с более качественным кодом. Что бы вы ни вкладывали в это понятие.

Хорошие IPS мониторы 60-75 Гц появились уже достаточно давно и те, кому жалко свои глаза, соответственно, давно их купили. Хорошие мониторы IPS с частотой 120-144 Гц появились можно сказать на днях, стоят не мало и сильно навряд ли сметены с полок.
Так что не могу никак поверить, что почти все игроки перешли на них. К тому же, они (игроки), деньги жмут на мониторы, в отличие от работающих за ними. Короче, ну, это сильно притянуто за уши и попахивает бредом, то что не осталось ни у кого 60 Гц.
Спрос на видеокарты создали майнеры. Точка. Тему можно закрывать(нет).
Было бы сложно создать более эффективную антирекламу компании, чем эта «статья».

В том, что видеокарты раскупаются майнерами — виноваты разработчики видеоигр.
В том, что пользователи зажрались, и хотят 240 кадров в секунду с отрисовкой десятков тысяч полигонов в кадре с PBR текстурами — виноваты разработчики видеоигр.
В том, что Нвидия захотела побольше бабла, и начала продажи до того, как было произведено хоть сколько-нибудь значительное количество видеокарт — виноваты разработчики видеоигр.
В том, что имеющееся количество видеокарт на рынке не покроет даже спрос от 3D-артистов, для которых 3000-я серия является очень привлекательной из-за скорости рендера и использования RTX-ядер для денойзеров — виноваты разработчики видеоигр.
А ещё разработчики виноваты, что не все из них пользуются проприета́рными фичами Нвидии, предпочитая им свободные от других.

image


Чувствуешь себя идиотом, пытаясь найти различия в такой таблице. Что совпадает — обычно должно находиться в общей, слитой ячейке.

Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.