Как стать автором
Обновить

Комментарии 81

А какой смысл в 6 мс отклика, если человеческая реакция в лучшем случае 16 мс?
Видимо человеческая реакция начинает реагировать после того, как откликнулся монитор. Т.е. время нужно складывать.
И об этом написано в статье…
И я согласен) убедили. Но для плавности это неважно — см ниже.
Для плавности, например, требуется большая частота кадров, а чтоб при этом не размазывалось требуется малое время отклика.
Я все мечтаю о мониторе 200 Гц и более, а это 5 мс и менее.
Было время — на ЭЛТ делал 200 Гц. Даже на рабочем столе было приятнее — окошки так плавненько двигались. Жаль, разрешение при этом не очень.
Вот насчёт плавности не согласен. Больше 1000/16=62 кадров в секунду вы не разглядите. Инертность сенсора — сетчатки. Плюс ограниченная скорость возбуждения нейронов. Это по сути АЦП получается с частотой сэмплирования 60-70 Гц. Пытаться получить сигнал с большей частотой это как осциллографа делать на ЦАП с частотой в килогерц.
Не согласен, между 144 FPS и 60 FPS разница просто огромная в восприятии. Не такая, как между 24 и 48/60, но есть. Я тут наглядный пример придумал. Представьте, что некоторый объект пролетает по экрану за 1/10 секунды. Он отображается 6 или 14 кадров за время, пока он будет на экране. Разница есть?
С трудом представляю. Это 1 сэмпл в 7 мс. Наша нервная система и медленнее. Реально нейрон имеет тактовую частоту не более 100 герц. А на обработку зрительного изображения, захват фотона сетчаткой нужно задействовать не один нейрон.
Под плавностью я имею ввиду отсутствие стробоскопического эффекта.
Быстро подвигайте мышкой. Вместо плавного перемещения указателя он разваливается на дискреты.
Мозг не очень хорошо обрабатывает такое изображение. Может, например, неправильно определить направление перемещения.
Тогда мне непонятна суть этого явления. Представьте себе, что вы можете делать 70 фотографий в секунду. Будет ли итоговый ролик плавнее, если пустить видео на монитор с частотой 100 Гц?
Если воспроизвести видео 70 Гц на мониторе 100 Гц, то видео так останется 70 Гц (усредненное).
Не совсем верно. Представьте, что вы за секунду можете сделать 70 фотографий с выдержкой 1/70. Если у вас будет видео на мониторе с частотой 24 кадра в секунду — получится много одинаковых фоток. Если видео с частотой 70 кадров — получим примерно то, что было на исходнике. 140 кадров в секунду — мы будем фиксировать изображение двух кадров видео за один кадр фотографии. И вместо условно проезжающей в кадре «машинки» получится «машинка + шлейф за ней». Заметить такой объект будет несколько проще, так как он будет больше времени экспонироваться для получения кадра и больше занимать на дисплее.
Точно. Спасибо. Получается, что пи увеличении частоты выше скорости сетчатки мы получаем естественный motion blur.
Именно. Только как такового «размытия» в плане ухудшения качества не будет.
На верхней гифке кадр 0.04 секунды, на нижней — 0.08. Меньше, увы, на гифке нельзя. Но пример всё равно наглядный. Даже если учесть инертность зрения, на 144 FPS мы получим более плавное перемещение, чем на 60.


Ну и не стоит забывать про то, что все люди разные. Если часами тренироваться в том же CS / Battlefield — скорость реакции растёт.




Вы можете часть врагов даже не увидеть в этом видео, а игрок успевает их засечь и иногда даже убить. Вставить хэдшот ровно тогда, когда цель пробегает в какой-то невообразимой щёлочке хрен знает где. Мозг, как, собственно, нейронная сеть, в одинаковых условиях учится работать с той же задачей всё быстрее и быстрее.

Вот подборка интересных «скоростных» людей. Тренировка, тренировка и ещё раз тренировка.
Врёт ваша гифка-то. Надпись пробегает экран два раза в секунду, на верхней гифке 10 кадров, на нижней 5 кадров. Итого по-честному на верхней должно быть написано 20 FPS, а на нижней 10 FPS.

Ну да, я понимаю, что вы в тексте написали 0.04 и 0.08 секунды, но эти цифры ещё надо увидеть, а затем перевести в герцы. Львиная доля читателей этого делать не будет, а просто посмотрит на гифку и поразится — какая, оказывается, колоссальная разница между 60 и 120 герцами, срочно в магазин за новым монитором!1
Не зря сейчас на игровых чампах они проходят допинг-контроль, был скандал, когда один из прогеймеров «приоткрыл» тайну — их команда сидела на аддералле — то есть, на амфетаминах, и таких игроков из просцены было много.
Справедливости ради, судить об отклике монитора и частоте развертки по реплеям Counter-Strike — не верно, особенно на таких маленьких величинах. Слишком много факторов, которые вносят погрешности, рассинхронизируя то, что видит клиент (игрок), то, что видит сервер, и то, что видите вы с ютуба. От тупо лагов сети, ОС сервера или клиента или самой мыши или клавиатуры и до разницы в тикрейте оригинала, записи и воспроизведения или факта записи тиков, в которые были совершены выстрелы. Единственный более-менее реальный способ оценить скорость реакции игрока на таком микроскопическом уровне в реплее — это смотреть запись с экрана клиента, созданную на железном уровне — через отдельные видеозаписывающие машины, прикреплённые к каждому игроку на чемпионатах (и они далеко не всегда есть).

Поэтому и возникают видео, где оружие направлено совсем в другую сторону во время выстрела, или когда убийство происходит вообще до появления персонажа в том месте, куда произошел выстрел. Например.
Набросал пример jsfiddle.net/1xa2n35q
Здесь смайлик перепрыгивает с места на место каждые через каждые 100ms
Можете поменять на 7ms (параметр speed) и всё равно вы будете отслеживать его перемещения по экрану. Да, нейроны будут реагировать с каким-то запозданием, но всё равно его будет видно.
Отличный пример. Я разницу до 0.05 чувствовал, дальше, думаю, упрёлось всё в железо.
На самом деле, если монитор 60гц, то это 1000/60=16,6(6) мс на кадр. Чтобы увидеть 5 мс, нужен монитор с частотой окло 200 гц.
Ну я на 144 Гц специально пошёл и проверил. :) 0.10 (которые ещё вписывается в развёртку) и 0.05 там чувствуются. На обычном мониторе есть небольшая разница, но чисто психологическая, наверное. Ну или за один кадр больше смайлов отображается. Над знать, как именно гуглохром рендерит пример и кучу всего дополнительно по части дров, винды, фреймбуффера и всего такого.
Да, один нейрон имеет тактовую частоту не более 100 герц, тем не менее, показано, что группа нейронов может в некоторых случаях обрабатывать сигналы с точностью до 1 мс.
И ещё вспомните тот факт, что боковым зрением видно мерцание развёртки на 60 гц — а это по сути 8 мс WtB.
Неважно сколько кадров будет объект на экране. Вы не сможете увидеть больше определённого количества в секунду. Частота сэмплирования/дискретизации. Только в биологическом смысле. Насчёт input lag согласен.
Ниже уже заметили про шлейф, раскрою подробнее: в вашем поле зрения за половину секунды пролетает огонёк.
А) Вы смотрите в центр поля (вы не фокусируетесь на огоньке). Что вы увидите, полоску или 40 пятен? Вы можете попросить режиссёра замылить огонёк в направлении движения, но тогда:
Б) Вы следите именно за огоньком. Почему он размыт?
Мозг построит вектор. Мы «увидим» продолжение его траектории даже, если он погаснет в процессе. Там куча странных эффектов восприятия. Я просто разобраться хочу.
Поддержу leshabirukov, мозг не будет строить вектор иначе не работали бы всякие светодиодные часы из винчестера(когда вращающаяся линейка светодиодов зажигается в определённое время в опр. месте), если бы мозг достраивал картинку на таком уровне — мы бы получали мазню, а не чёткий текст.

А по поводу скорости нейронов — это ничего не меняет, насколько мне известно в сетчатке есть такая штука как «зрительный пурпур» который при попадании света разлагается и запускает хим реакцию которая уже колбасит нейроны, так вот, в реальной жизни быстродвижущийся объект засветит всю траекторию которую изображение проходит по сетчатке(вызвав разложение этого пигмента которое от скорости нейронов не зависит), а в случае монитора — отдельные точки. После медленные нейроны передадут в мозг либо размытый силуэт(IRL), либо набор отдельно стоящих изображений (монитор). Этим и обуславливается стробоскопический эффект.
Вот насчёт плавности не согласен. Больше 1000/16=62 кадров в секунду вы не разглядите.
А теперь удвойте число кадров, т.к. источник (монитор) и приёмник (глаз) не синхронизированы. То есть приёмник будет либо получать недорисованные изображения (без vsync), либо устаревшие (с vsync). И, если аналогичную проблему между видеокартой и монитором можно решить, то синхронизировать картинку со спайкамиотсчётами зрительной коры мозга несколько затруднительно.
О. Точно. Насчёт синхронизации не думал. Хотя тут тоже неоднозначно. Сам сигнал является синхронизатором. Смотри — нейрон сетчатки покоится в темноте. Внезапно в глаз долбанули импульсом, он возбудился и передал дальше оцифрованный сигнал. После чего впал в период рефрактерности на 100 мс, заряжая «конденсатор». Хотя да, проблема в том, что второй кадр, который будет готов принять нейрон будет необязательно полным. Наверно и правда синхронизация.
Инертность сетчатки, вы сейчас сказали, может больше кадров и не разглядеть, а вот мыло еще как. Фотончики всё же летят не пачками 62 раза в секунду, а постоянно.
Больше 1000/16=62 кадров в секунду вы не разглядите

Откуда такие цифры?
ВВС США использовали очень простой тест для определения скорости визуальной реакции на небольшие изменения в свете. Эксперимент представлял из себя серию картинок самолетов, мигающих на мониторе в темной комнате каждую 1\220 секунды. Пилоты были вполне способны “видеть” постизображение и даже определять модель самолета. Подобные данные доказывают не только тот факт, что человек может различать 1 картинку в течении 1\220 секунды, но и весьма вероятно возможность интерпретировать видео даже с большим FPS.
Скопипастил отсюда
К тому же взгляд не статичен и может двигаться синхронно с «объектом» на экране — высокий фреймрейт поможет разглядеть этот «объект»

Глаза — это не камера штативе. Глаза могут быстро двигаться и следить за перемещающимся объектом. При 24 кадрах в секунду этот объект будет размыт. А при 144 кадрах на сетчатке за счёт движения глаз объект получится чётким.
Для 200Гц над ждать развития AMOLED-технологии, как мне кажется. Только она может с такой скоростью нормально работать.
Смысл в том, что шлейф за быстродвижущимися объектами (и даже простоым курсором мыши) виден и при 5 мс.
На некоторых мониторах шлейф виден и при 2мс, потому что маркетологи меряют переход от 10% к 90%, а то, что происходит после этого, они не говорят, а вы видите.
т.е. можно курсор серого цвета поставить и шлейф пропадёт? :)
Когда-то активно играл в Quake 3. Я далеко не профессионал, но задержка в 1 кадр заметно влияла на геймплей. В настройках 3D видеокарты по-умолчанию стоял буфер в 3 кадра, я сравнивал буфер 1 и 2 кадра — разница довольно заметна.
Не знаю, правда, с какой частотой кадров работал буфер, т.к. в Q3 были «правильные» 125 fps, а монитор 85 Гц. Но даже если 85 Гц, то это 12 мс.
Для настоящих игроков, думаю, и 6 мс будут очень заметны.
Да, я уже согласился насчёт input lag. Был не прав. Я лишь уточняю о максимальной частоте восприятия кадров.
Я думаю, надо складывать: 6+16.

Хм… Пока читал статью, все уже ответили, а коменты на странице не обновлялись, на хабре бесконечная задержка, 6мс тут не помогают.
Да, согласен. Дополнительный источник задержки.
Viewsonic VG2401MH.
Температурная равномерность подсветки сильно зависит от яркости, т.к. используются светодиоды с синим излучателем и жёлтым люминофором. В сумме, конечно, они дают белый свет, но вот его температура сильно зависит от яркости, из-за чего тени проваливаются в синеву


Тема устройства таких пикселей не раскрыта. Откуда берется и в каком месте ячейки виден белый цвет при переизлучении желтого от синего?

особенности недорогих IPS (шестибитная матрица с FRC) практически сводят на нет все преимущества точной цветопередачи

Может кто-нибудь примерно описать ощущения возникающие при наблюдении этого?

Я правильно понял, что ролик про G-Sync можно понять только, если в мониторе уже он есть?
Нет, в ролике вставлены slowmotion-части, чтобы было заметно эффект. Да и на глаз заметно отличие в работе, это ж запись, в ней не может быть tearing'а такого.
Про работу светодиодов и люминофора вот тут рассказано более-менее общим языком. Что касается шестибитной матрицы с FRC — заметить на глаз практически невозможно, при неудачном совпадении частоты мерцания подсветки и FRC'шки могут чуть сильнее уставать глаза. Суть в том, что вместо честных 8 бит на канал (по 256 уровней «поворота» ЖК молекул под светофильтром) используют всего 6. Это позволяет сильно ускорить работу и самой матрицы, и упростить разводку / электронную начинку (надо подать не 256, а всего 26=64 уровня сигнала, и суммарно получается не 256*256*256 = 16 777 216 оттенков, а 64*64*64 = 262 144. В соседних кадрах контроллер подбирает такой уровень сигналов, чтобы искомая точка попала «между» (и была максимальна близка к тому, что сказала отобразить видеокарта), а инертность зрения доделывает всё за вас. В итоге получается около 16.2 млн отображаемых цветов, что несколько меньше, чем честный восьмибитный цветовой охват.
Алгоритмы увеличения количества цветов точно разные. Бывает получается экран в полосочку, бывает в звездное небо, бывает, что это сделано аккуратно и незаметно. Но бывает и так, что смотришь на экран и он вроде бы все показывает и цвета нормальные и лампа не мерцает, потому что светодиодная подсветка, но есть в нем какаята зараза, которая вызывает физическое отвращение. Я пробовал смотреть фотиком, по-моему, это тот случай, когда все пиксели мерцают очень сильно, но сами по себе и рандомом, без привязки к координатам и без синхронизации по времени.

Как вы пришли к числу 16,2М?
Не понятно где получается белый цвет, приминительно к монитору. Белый цвет — это цвет подсветки, или подсветка синяя, а желтый люминофор находится в пикселях?
Подсветка «белая», состоит из светодиодов, у которых «синяя» основа и «жёлтый» люминофор. В сумме получится излучение «правильной» температуры, просто общий спектр у неё кривенький. Теоретическую часть работы FRC я вам описал, на практике там естественно тёмный лес, война и немцы. На волшебном ресурсе TFT Central собрана огромная теоретическая и практическая база знаний по всяческим технологиям. Можете ознакомиться сами. Но даже там информация… в очень общем виде, мягко говоря.

Почему 16.2 — уже не помню (ни формулу, ни даже приблизительной идеи, как рассчитать оттенки так, чтоб было 16.2), но на том же TFT Central всюду указано 16.2 и я склонен полагать, что число верное.
По поводу подсветки. Если подсветка белая, пусть с некрасивым спектром, то как получается, что спектр зависит от яркости пикселя?
Эффективность люминофора нелинейно зависит от интенсивности возбуждающего излучения, например?
Вы сказали, что люминофор находится в светодиодах подсветки всего экрана целиком. Отдельные пиксели на его эффективность не влияют. В вашей статье написано, что элементы сцены (изображения) выглядят более синими или желтыми в зависимости от их яркости, а, значит, не от яркости лампы подсветки:

тени проваливаются в синеву, а вот яркие и насыщенные оттенки, наоборот, чуть желтят

Я что-то неправильно понял?

Как получается, что спектр зависит от яркости пикселя?
У разной длины волны разные энергетические уровни фотонов и они неравномерно поглощаются / отражаются от неидеальных по своей структуре молекул ЖК. У «синих» фотонов около 2.5 – 2.8 электронвольт, у «жёлтых» — 2.1 – 2.2, отсюда и разница в прохождении «закрытой» ячейки. Плюс в некоторых мониторах ещё и всякие адаптивные подсветки бывают. Температурная неравномерность подсветки — основной бич относительно недорогих мониторов на текущий день. Бывает смотришь результаты с колориметра — вроде и покрытие ничего, и гамма-кривые, но качество того, что суют в подсветку — хоть стой, хоть падай. Тени синие, света жёлтые, сама подсветка с градиентом и пятнами…
Как узнать есть G-sync или нет? Честно я не игроман, но стало интересно, неужели это дает такой прирост в четкости и плавности картинки.
Монитор BenQ XL2411T. Вроде бы как тоже полноценный 144гц. И Nvidia 3D ready (Очки тоже есть, 3D супер, не во всех играх но прикольно).
И хватит ли ресурсов машины чтобы все это ощутить? Нету больше желания комп грейдить, и денег. I7 2600k, 16gb ram, Nvidia 780 GTX, SSD 120 vertex 3.
Ресурсов хватит, 3D-ready работает на базе G-Sync, скорее всего. Кадры-то с очками надо синхронизировать. Если в описании монитора где-нибудь есть фраза LightBoost — можно увеличить уверенность в том, что поддержка этоф чики есть, т.к. LightBoost — это часть G-Sync. Но (обычно) на коробке сорок раз напишут про G-Sync, не зря ж бабки за плату в Nvidia отдавали. Лично я официальной инфы не нашёл.
Самое интересное я тоже ничего такого не вижу… И пока в инете натыкаюсь что якобы lightboost есть а g-sync нет. Ладно спс. Буду искать.
P.S. Похоже все таки нет :) Главный вопрос у всех как добавить поддержку G-Sync. Так что не все мониторы одинаково хороши оказывается :)
Нет — мухи отдельно, котлеты отдельно.
3D-ready работает на основе высокого фиксированного фреймрейта — 120/144гц — не важно с каким подключением: DP, HDMI или DVI
FreeSync и G-Sync манипулируют сигналом vBlank в DisplayPort — то есть только DP подключение и монитор с прямым подключением по eDP к матрице либо совместимымым asic
Тут ещё нвидия прикрутила бесполезную плату с fpga и буфером — имхо просто продать подороже, так как на ноутах g-sync работает и без неё.
в BenQ буква G в названии серии даёт намёк на присутствие G-Sync. Без неё — нет.
А как на счет теста Японки на веревке?
Можно подробнее? Видос-то я нашёл, а что с ним делать?
Этот тест нагружает любую матрицу по максимуму своими полосатостями и еловыми иголками. Им хорошо проверять динамичность матрицы, как она размазывает такое динамичное видео. На некоторых матрицах даже глаза болят когда смотришь.
У меня всё идеально чёткое, но несколько… омм… стробоскопичное что ли.
ну тогда делись плюсиком ))
30 кадров в секунду, причём кадры эти — чересстрочное мыльцо. Неужто ничего лучше нет?
Как обладатель 144 Гц монитора могу сказать что вижу разницу между ним и <100 Гц вариантом. Ещё хорошо видно где количество кадров в секунду низкое, например на видео. Нынче любят делать видео для веб-просмотра с повторяющимися кадрами или низким их числом, их смотреть нереально. Разницу между 120 и 144 я не вижу. Зачем нужен G-Sync и вообще вертикальная синхронизация — не понимаю т.к. ни разу с этой проблемой не сталкивался, возможно нужно другое железо чтоб её увидеть. Ну и однозначно могу сказать что 144 Гц это сейчас только для игр, в других областях заметно чего не хотелось бы видеть.

З.Ы. я вижу, как моргает одна из лампочек в подъезде, мои знакомые — нет. Вероятно я вижу немного не так как вы, соответственно и восприятие монитора у меня не совсем такое.
Зачем нужен G-Sync
Для низких fps в районе 40-75.
И не менее наглядное в related нашлось:

Я на низких FPS тоже не сталкивался с этим эффектом, всё время обходит стороной. Вижу его на видео, но не вижу в реальных условиях
Значит вам повезло, и вам не нужна эта технология! )
Забавное стечение обстоятельств. Я не менял железо, но поменял 1 кабель. И увидел. Кабелем стал HDMI вместо DVI-D. В общем сразу же поменял обратно. Монитор стал выдавать не более 60 Гц (ограничение HDMI 1.4a в видеокарте) и разрывы картинки просто везде, невозможно нормально даже видео смотреть.
Про классический, самый дешевый XL2411 не написали, потому что в юлмарте не продается? )
А он сейчас хоть где-то продаётся ещё?
Хм. Сейчас добавлю в пост.
Быстро двигайте курсором. При 60 Гц вместо одного курсора штук 3-5 в разных местах. Для мозга это несколько разных объектов. При 144 Гц 10+ курсоров друг за дружкой, мозг корректно воспринимает их как один быстро движущийся объект.
ПС Где-то читал что можно заметить разницу между 240 Гц и 480 Гц. А выше уже нет
Курсор в Windows — это читерство, он в очень малом количестве кадров рисуется, поэтому разница настолько очевидна. Лучше смотреть на анимацию в хороших приложениях типа браузеров или офисного пакета — разница в количестве кадров гораздо меньше заметна, как и должно быть, зато плавность и точность анимации — прямо загляденье.
Действительно, подсчитал количество курсоров, в круговом движении. За 1 секунду около 20 курсоров всего.
Есть способы заставить рисовать курсор каждый кадр?
Есть настройка, оставляющая «хвосты» за курсором. Но меня от неё укачивает.
На сколько я понял из статьи на IPS невозможно сделать 144 Гц, и действительно я таих мониторов не видел. Но что мне не понятно — это как работает TrueMotion на LG телеках. Там вроде честные 200Гц и AH-IPS. Поправтье меня, пожалуйста, если ошибаюсь.
LG имеет кучу патентов в области IPS. Читерская матрица + стробоскопирующая подсветка = trumotion. Что у них с цветами, стабильностью и всем остальным — над изучать конкретные модели. Да и контента 200 FPS днём с огнём не сыщешь, если только кадры не интерполировать программно, что уже совсем не торт.

Попробую провести исследование, если получится — напишу статейку.
В статье указано что ASUS MG279Q с матрицей по технологии AHVA, а на сайте что IPS. Это ошибка или намеренное введение в заблуждение?
Это практически одно и то же, PLS и AHVA — это реализации, маркетинговые названия и развитие технологии IPS разными производителями.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.