Comments 991
потому что вы просто закончите с рождественским цветным беспорядком

Статья же про зрение и глаза, да? Вытекают. Неужели какое-нибудь "вы получите рождественский цветной беспорядок" в голову не пришло?

Так перевод же. Причем оригинальная фраза
end up with a christmas light mess
на самом деле переводится как «избавитесь от рождественской гирлянды».

Если бы там было "You'll just end a cristmas light mess", то это можно было бы перевести как "Вы просто покончите с этим разноцветным безобразием". Но там "end up with" — идиома, означающая "получить что-то в результате".


То есть перевод — "у вас просто получится разноцветное безобразие". Можно перевести дословно: "мешанина рождественских огней", но это как-то натянуто. "Неряшливая ёлочная гирлянда" вроде бы получше.

Во-первых, как уже сказали, переводится не так. Во-вторых — переводить надо литературно.


"Закончите с беспорядком" я, к примеру, автоматически в уме поправляю на "покончите с беспорядком" — а это совсем не то, что имелось в виду в английском тексте. Понять, что имел в виду автор, мне помогло только знакомство с английским выражением.

Жаль, что производителям мониторов эти все аргументы совершенно побоку. Монторов с 4k и диагональю 24" (27 мне уже многовато) на яндекс-маркете ровно два. И то второй без регулировки высоты.
Потому что, очевидно — нельзя впихнуть невпихуемое, сделав настолько мелкие пиксели. Ну или нерентабельно.
А большие матрицы, чтоб подешевле было, как в этих ваших погремушках, вы предлагаете методом склейки из маленьких тайлов делать? Ну да… можно! Только сеточка из краёв склеенных маленьких дисплеев немного будет раздражать.
Можно получить 26 дюймов из 4-х этих ваших 13-дюймовых… крест по середине это мелочи, да, зато модельный ряд сразу расширится, если все так делать начнут

На телефонах уже 4к есть, так что все спокойно впихивается. Просто спроса, видимо, пока что нет такого большого.

А будет ли он без таких статей? :) Да и с ними — монитор обычно на годы покупается, просто так бежать и покупать новый монитор, увидев, что что-то на рынке прикольное появилось, мало кто будет.

Да и статья-то высосана из пальца.
Автор какой-то странный. Буквы у него размытые. Он протереть экран не пробовал?
Высокое разрешение нужно, например, при работе с чертежами в Autocad, иногда нужно вывести на экран вид с большим количеством мелких деталей и чтобы при этом надписи читались — приходится постоянно увеличивать разные участки.
Но тут возникают как минимум две проблемы.
Первая — найти монитор 4k с диагональю 20"-22" (больше не влезает в поле зрения, нужно крутить головой).
Вторая — большое разрешение для нормальной работы требует больше вычислительных ресурсов.
Как вариант, существуют ноутбуки 4k с диагональю 15,6".
В любом случае, одно рабочее место будет стоить 100-150т.р., сомневаюсь что хотя бы на одном предприятии в РФ инженерам поставят такое.
Где-нибудь в Боинге может быть проектировщики на таких и работают, но не у нас.

Первая — найти монитор 4k с диагональю 20"-22" (больше не влезает в поле зрения, нужно крутить головой).

Монитор от головы отодвиньте. Получаете меньшее поле обзора с меньшим размером пикселей (удвоение расстояние эквивалентно эффективно удвоению dpi). Двойной профит.
Вообще, большинство описанных в статье проблем решаются нормальным расстоянием до экрана.

Иногда чтобы отодвинуть монитор нужно квартиру новую купить Ж)

В такой квартире монитор за 2к баксов будет смотреться как-то издевательски. Все знакомые будут язвить: " мог бы вместо монитора квартирку попросторнее прикупить!".
Не у всех орлиное зрение. Мне лично некомфортно, если монитор дальше 75 см.
А если увеличивать масштабирование — то это получается шило на мыло, получаем столько же информации сколько на 1080 но на отодвинутом мониторе.
Большие диагонали скорее для кино и гейминга, чем для работы. Возможно где-нибудь в полиграфии и дизайне они тоже нужны.
Информации столько же, плотность пикселей (на угловую минуту) — больше.
Не у всех орлиное зрение. Мне лично некомфортно, если монитор дальше 75 см.

Вам тогда и dpi высокий не нужен.

Вам тогда и dpi высокий не нужен.

Вот как раз после работы на 27«4К мониторе и MBP Retina как раз уже хочется для текста высокого разрешения.

А мне вот норм головой вертеть :D У самого 21:9 монитор на 34 дюйма. И еще один на 24 дюйма рядом для мелочей. Оба правда 1080p. Сижу где-то в 70 см. от него и вообще норм. Чеб шею и не поразминать)

Работа. с АКАДОМ постоянно. Разрешение — чепуха. По мне главное — размер экрана. Дома — 27" нормуль — открыт чертеж и какая нибудь таличка-страничка. На работе 24" и второй — полусписанный 17". На одном псотоянный чертеж, на втором — справочные данные — табличку и т.д. Там и цветопередача фуфел и разрешение, но в принципе хватает. В идеале для КАДА2 монитора 24-27". При этом не требуется огромное разрешение.
Домашний монитор брал лет 7 назад — Китай с матрицей Мака (типа во вторую смену завод делает :) ), Мак и лыжа — разницы на АКАДе не вижу. И глаза не устают.
Домашний монитор брал лет 7 назад — Китай с матрицей Мака (типа во вторую смену завод делает :) ),

а что за чудо такое?
Да даже DNS их продавал под своим брендом — был момент, когда наладили корейцы на маковских матрицах, не прошедших отбор apple, производство «мониторов без нифига и с хорошей матрицей за копейки». Там первые модели реально были — кнопка включения, DVI и разъем под кабель питания, всё. Потом уже появились менее кустарные модели… а потом матрицы кончились. 27" точно были, может и 24" еще, не помню уже.
В староглиняные времена так и работали — на текстовом дисплее вводишь команды, на графическом видишь результат )
Я по старинке — у меня на 27 чертеж, на мелком — интернет, справочник. расчеты, пояснительная записка…
У меня близорукоть. Большая. Так что нормальное расстояние до монитора в очках — примерно 25-30см, так что мне норм зайдет даже 24" 4К без масштабирования. На большем расстоянии пользоваться некомфортно.
At the risk of sounding like staraya babka — как же люди раньше программировали на мониторах 1280x720 или, прости господи, 480 строк? Я понимаю, прогресс, все дела, но статья больше похожа на рекламу из разряда «Вы всё ещё стираете свои носки с мылом и сушите их на батарее? Какое ретроградство, вам срочно нужен этот промышленный порошок и промышленная сушилка! Вы ведь ходите на улицу в носках каждый день, даже в выходной, неужели вы не хотите это делать в идеально выстиранных носках?»
Ну да. А раньше писали в 40*25 символов. А ещё раньше — перфокарты. И ничего, вполне программировали. Но многие вещи стали всё же гораздо удобнее.
А чем удобно платить в несколько раз больше, чтобы получить то же количество текста на экране? Который ещё и читать будет сложнее?

Наверное, затем, что важно не только количество, но и качество отображения текста? Пассаж про "сложнее читать" не понял.

Пассаж про «сложнее читать» не понял.
Все современные шрифты, без исключения, сложнее читать, чем растровые шрифты конца XX века. Просто потому что природу не обманешь — контраст любых современных шрифтов гораздо меньше, чем контраст жёстких, резких, шрифтов Windows 3.0 или даже Windows 2.0. Которые не требовалось подгонять под сетку — они были такими от рождения!

Просто потому что тогда у вас выбора не было: то месиво, в которое вырождаются эти шрифты даже в крупных размерах (типа 14 pt вместо 7pt — вполне себе имитация той самой злощастной «ретины») — на старых мониторах с плохой фокусировкой различить были бы невозможно в принципе.

Потому тот факт, что совренные шрифты хуже читаются — это просто факт. Его легко проверить.

Наверное, затем, что важно не только количество, но и качество отображения текста?
Да, можно найти 100500 причин (начиная от эстетики и кончая разного вида психологией) почему это круто для всяких ваятелей рекламных брошюр и объявлений… но нафига всё это программистам?
но нафига всё это программистам?

очень странный вопрос. Наверное затем, что программистам тоже не чужды обсуждаемые причины (те, которые "начиная от эстетики и кончая разного вида психологией")?

Наверное затем, что программистам тоже не чужды обсуждаемые причины (те, которые «начиная от эстетики и кончая разного вида психологией»)?
Ну если у вас лишние деньги в карманах — то это ваш выбор, но зачем же так яростно ваши личные модные хотелки продвигать?
Сложнее читать непривычный шрифт. А легче всего читать привычный, даже если он состоит из дискретных точек. Поэтому если вы занимаетесь программированием, лучше всего вам использовать везде принудительно один и тот же шрифт. Ещё и растровый.
Это не слишком сложно, если вы действительно занимаетесь программированием.
Забавнее всего, что самое простое и очевидное решение: использовать растровые шрифты — отвергнуто с порога.

Ну что за детский сад, ей-богу: матрицы 5x7 более, чем достаточно чтобы различимо отобразить все латинские и русские буквы. И всё.

Да, я знаю: UX'ы плачут и объясняют, что я ничего не понимаю в шрифтах.

Возможно. Но зато я точно знаю, что если не содавать самому себе проблем и не искать красивостей там, где они не нужны — то и решать оные проблемы не потребуется.
Ещё неплохая альтернатива — всё писать как индексы на советских конвертах.
Это отлично выглядит на старых векторных мониторах, но я только в музеях видел, шанса поработать не досталось.

А на растровых мониторах это отвратно выглядит…
Я типа такой проектировщик. Не Боинг, но очень типа того. (Давным-давно Боинг входил в нашу корпорацию. ) С такой необходимостью не сталкивался. Хотя, может тем, кто чертежи оформляет пригодилось бы.
Так я за свои купил на работу обычный второй моник, б/у,$80. Моя самамя лучшая инвестиция. Компания еще несколько лет не предлагала доп. монитор.
Хотя, к эргономике отношение религиозное.
Цветной телевизор с элт, подключенный к zx-spectrum из 1985-го года смотрит на вас с нескрываемой иронией во взгляде)
Вы не поняли иронии. Разрешение IBM T220 3840×2400 при диагонали 22.2" (плотность 204ppi), 41 Гц. В 2001 году! Без всяких DP, Thunderbolt'ов и прочих этих ваших макосов… За смешные (хотя и вполне адекватные для такого уникального продукта) $8400 (в 2003 году). Хотя очередей за ним, ясно, не выстраивалось… Подключался двумя LFH-60 (которые собирали сигнал из одного или двух DVI, то нужно было 1, 2 или 4 DVI-выхода). А дальше ещё веселее — моник комплектовался карточками Matrox G200 MMS. Если помните, в 2001 только-только появлялся AGP, бал правили всякие Вуду, С3, и Рива ТНТ (это была просто мечта). Так вот те чипы, которые разработала Matrox 20 лет назад, поддерживается до сих пор (последний апдейт дров от DELL — конец мая 2020), используются в серваках…
Отличная вещь, только для современного железа не очень совместимая. А если еще учесть что пару лет назад VGA порт ушел в полный Deprecated — всё грустно. Сам пользуюсь Compaq P1220. Отличный аппарат. Может до 2560х1920 на 60 герцах, но не на каждой видеокарте. Таки аналоговый сигнал в 400МГц для современности непозволительная роскошь. И очень привередлив к качеству кабелей. А так основное рабочее 1600х1200х100 — всё четко и плавно.
Так я и не выступаю в роли некромантов/филов… Для того времени это было что-то запредельно крутое, по теперешним меркам — ну так себе…
Когда-то тоже помню прыгал от счастья, когда смотрел в только что купленный LG Flatron F700P (после какого-то 14" древнего самса, уже и не вспомню)… С его 1920 x 1440 и «всего» 65 Гц… Фишки ЭЛТ, кстати, в том, что они перерисовывают картинку по-честному каждый раз (а не держат её в буфере, как делают ЖК); и в идеальном аппаратном масштабировании (нет сетки пикселей — нет необходимости пытаться впихнуть невпихуёвымаё или что-то пересчитывать). Ну и скорость света (а именно с такой скоростью отрисовывается картинка в ЭЛТ) — тоже не хухры-мухры… )))
Вот, к слову, автор статьи ни разу не обмолвился об ЭЛТ, хотя то же Compaq нативно может 2048x1536 / 80Hz, и это будет выглядеть гарантированно лучше, чем любая покоцанная рескейлом картинка (и особенно динамика) на ретине… И этого точно хватит для разработки и красивых шрифтов… Однако же, потребительские качества (в виде компактности) выходят на первый план, и мало кто может позволить себе держать «архаичную бандуру» на столе, хотя бы и она давала картинку лучше… Маркетинг такой маркетинг…

Вместо сетки пикселей в них "сетка" люминофора, "размер зерна" помните понятие? Электроника hires режимы поддерживать могла высокие, но два соседних пикселя разных цветов вполне могли оказаться слившимися в хорошо так заметную градиентную полосочку с чистыми цветами по краям и чем-то средним в центре

Вместо сетки пикселей в них «сетка» люминофора, «размер зерна» помните понятие?
«Размер зерна» сильно меньше влиял, как это ни странно.

два соседних пикселя разных цветов вполне могли оказаться слившимися в хорошо так заметную градиентную полосочку с чистыми цветами по краям и чем-то средним в центре
Не могли. Ну то есть вообще никак.

Зерно, во-первых, не обязано было быть зерном (Тринитрон, да), а во-вторых — и «зерно» и, уж конечно, вертикальная полоска люминофора, не загорались целиком. Свет излучался там, куда попадал электронный луч — то есть яркостная картинка строго соответствовала задумке — а вот уже с цветами всё могло быть не так просто. Это можно даже на картинке из Wikipedia заметить — там белая букве «e» под микроскопом и на ней заметно, что слева задействуются больше красного, а справа — больше зелёного.

Никакой ClearType так не может. LCD просто чисто аппаратно не может зажечь полпикселя. А поскольку цветовое зрение человека сильно менее острое, чем чёрно-белое, то при том же разрешении картинка на экране LCD — заметно хуже воспринимается, чем на экране CRT.

Вот если приблизиться гораздо ближе к экрану, чем обычно (или, вообще, посмотреть на него в лупу) — то может показаться, что разницы между LCD и CRT вообще нету. Но она есть — если знать куда смотреть…
Кстати этот эффект в действии лучше видно как раз на картинке в статье теневая маска. Там как раз очень хорошо видно вот эти самые засвеченные на ¼ или на ¾ кружочки.

Таким образом форма мелких объектов на CRT передаётся отлично (и независимо от разрешения вообще), а вот цвета… да, цвета страдают. Но это можно заметить только если у вас жуткая близорукость и вы буквально «носом в монитор» упираетесь.

Кроме маркетинга ещё и бывает сложно решить проблему куда поставить "архаичную бандуру" дюймов на 19, чтобы носом в неё не утыкаться.

потребительские качества… выходят на первый план

но
Маркетинг такой маркетинг…


И всё же — потребительские качества лучше или маркетинг виноват? :) Кроме размера в глубину там были проблемы и с масштабированием диагонали и c увеличением разрешения с достаточной высокой частотой (далеко не всем хватало даже 85гц для комфортной работы). Технология вышла на верхнюю полочку S-кривой и развитие было очень медленное. LCD, которые пришли массово на замену, были тогда практически по всем параметрам хуже, кроме габаритов, диагонали, отсутствия мерцания и стремительного развития, но это было то, что людям нравилось больше, чем качественная картинка и быстрый отклик.

/sarcasm/ представляю себе ноут или планшет с элт трубкой, вместо lcd матрицы

Ну с планшетами — да, будет проблема, но первые перносные компьютеры вполне себе использовали ЭЛТ. В частности тот самый знаменетый Osborne в честь которого назван Эффект Осборна.
И они таки были! Например, упомянутый выше
самый первый «ноут» Osborne 1, 1981 год
Osborne 1

Или
IBM Portable Personal Computer 5155, 1984 год
IBM Portable Personal Computer 5155
IBM Portable Personal Computer 5155
Конечно же, потребительские качества ЖК в среднем по больнице выше, чем ЭЛТ. То есть плохенький ЖК, конечно, проиграет лучшему из ЭЛТ, но если брать представителей ± одного класса, конечно ЖК будет лучше почти во всём. Почему почти? Ну вот навскидку пара параметров:
Углы обзора. Для ЭЛТ такого понятия не существует в принципе, там угол будет 180 (а если моник не плоский, то даже чуть больше))), и это будут честные градусы, где картинка не будет меняться вообще никак. Даже на распрекрасных (без сарказма) Super AMOLED plus картинка меняется, не говоря уже про IPS-LCD и тем более TN…
Время отклика «матрицы». Опять же, для ЭЛТ это без малого скорость света (понятно, что реальные устройства ограничены скоростью преобразования сигнала в аналоговый).
Равномерность подсветки. Если (ошибочно) допустить, что люминофор выгорает равномерно, то яркость в любой точке ЭЛТ будет одинакова. В ЖК (кроме семейства OLED).
Рискну предположить, что существует некоторая небольшая ниша, где важно отображение именно аналогового сигнала безо всяких аппроксимаций (возможно, какие-нибудь осцилографы и т.п.). Тут точно ЭЛТ (но не те, которые с решётками/масками). Хотя скорее, это я уже за уши притягиваю; думаю, разрешающей способности современных ЖК должно хватать всем…
Может найдутся и ещё какие-то критерии, где ЭЛТ будет лучше. В остальном они, конечно, сильно проигрывают… Потому и ушли на заслуженный покой с рынка… Так что тут вы правы и я с вами согласен.

А про маркетинг — это я больше про статью. Очень мало кому действительно нужна ретина, для большинства же она даже может стать источником лишних проблем (например, обсчитывать 4-10К сильно сложнее, чем 2К, то есть кому-то придётся обновить железо и платить больше за электричество). Причём кроме расходов на саму ретину есть ещё оверхэд на hidpi (например, смасштабировать картинки в браузере). То есть та же ретина в ноутбуке может стать и нежелательной, потому что съест больше батарейки…
Это всё смешные копейки, что по вычислениям, что по энергии. Наоборот, обновление на современный компьютер поможет сэкономить кучу последней :) 4к — это нагрузка для телефона, а с большим справится любая современная графика, встроенная в процессор. Про 10к (сколько это вообще?) пока никто не говорит.

Это если игры не запускать, даже старые. Какой-нибудь half life 2 на 4к может серьёзно нагружать неигровую систему.

Современная интеграшка слабейшего Ryzen конечно потянет видео h.265 2160p воспроизводить? А вот 7 лет назад у мобильного Celeron даже 1080p не тянула, пришлось найти плеер, работающий на дискретке.
Конечно потянет (ответчаю не глядя в спеки, потому, что видео аппаратными декодерами тянется и это первое дело, на которое сейчас кремния не жалко)

Edit: так и оказалось, встройка с декодером версии 6.0 c 2015 года тянет 4к х265
Да, там разработчик стандарта в презентации жаловался, что после выхода железок не очень-то стремятся реализовывать дополнения к стандарту, всё что опциональное и все эти хай профили. Выгоднее сразу новый стандарт видимо запилить.

Хотя в последних современных железках вроде всё есть.

Ой, а можно я тоже про профили немножко поною? Профиль High422 тоже реализуется примерно никем, из-за чего я не могу перекодировать оцифровки VHS-кассет без искажения цвета :(

А толку от софтовых кодеров-декодеров, если на большинстве не слишком "умных" телевизоров их всё равно нет и не предвидится, да и на том же андроиде ещё нужно додуматься предварительно установить из гугл-плея какой-нибудь плеер с софтовым декодером

А толку от архивов, если их просмотреть будет толком не на чем) Так-то если ограничиваться каким-нибудь VLC в каком-нибудь линуксе на каком-нибудь современном Core i5, то можно хоть в Lossless H.265 писать если места не жалко, а если хочется чтобы условные родственники просто воткнули флешку в телек и не парились, но при этом постараться максимально сохранить качество, то приходится различные связанные с кодированием дилеммы решать. Ну или кодировать дважды в два разных формата, если места совсем не жалко (а мне жалко)

Lossless H.265 писать если места не жалко

Я наоборот считал HEVC способом сжать в относительно низкий битрейт. Ну а интеграшка в «современном Core i5» наверное должна потянуть декодирование такого сжатого видео легко.

Как это ни удивительно, он весит даже немного больше чем Lossless H.264 (или это просто libx265 недостаточно оптимизирован?), ну и относительно lossy они оба здоровые (65 Мбит/с даже с пресетом veryslow ради какого-то жалкого VHS — спасибо, не надо). А мой ноутбучный Haswell в принципе не поддерживает аппаратный H.265 :(

Вы вполне можете использовать так называемый «visually lossless» с CRF в районе 10. Отличия в файлах, пожатых с CRF 20 и с CRF 10 нужно будет искать при многократном увеличении, и в идеале еще хорошо бы знать, где их искать.
Если Вы создадите фотку 2160p jpg с качеством 0.25 бит/пиксель, то наверное на FullHD мониторе не будет видно артефактов, если не подставлять глаза совсем близко.
Это пожалуйста. Только медленно, не всегда устройства, особенно мобильные, тянут это, ну и батарейка таит на глазах. А глаза щиплет.
Если совсем оффтоп, то 4:2:2 использует mJPG?
А в VHS было 320x240 и 120 линий цветоразности?
ЕМНИП, у меня было именно HEVC 10bit, FullHD — почему-то «Росомаху» (первого?) скачал в таком качестве при монике 768p.
С HEVC проще на самом деле, там у всех его аппаратно поддерживающих есть 10bit.
почему-то «Росомаху» (первого?) скачал в таком качестве при монике 768p.

Я при FullHD как-то сдуру скачал Ведьмака в 4к HDR )) Проще было купить новый моник, чем перекачивать.
Я предположу, что на 1080p мониторе может хорошо(то есть лучше, чем FullHD) выглядеть даже видео 2160p с 0.25 бит/пиксель.
А вопрос в том, как эти 10 бит потом отобразит монитор.
Как всегда, никак. В лучшем случае сокращать битность будет MadVR, в худшем это произойдёт намного раньше. Ну а выводить 10 бит на монитор умеет тот же MadVR, но только в полноэкранном режиме, и мой монитор при этом переключается, а делает он это до безобразного долго, около 5 секунд. Так что увы, продолжаем смотреть 8 бит, а 10 бит использовать для оптимизации хранения аниме.
В лучшем случае сокращать битность будет MadVR, в худшем это произойдёт намного раньше.

Я экспериментировал с 10-битным цветом, когда писал собственный просмотрщик изображений. Идея была в использовании ordered dithering: что в блоках 2х2 пикселя к каждому пикселю добавлялось 0, 1, 2 и 3 соответственно, а затем цвет округлялся до 8 бит. На 4К мониторе градиенты выглядели идеально, неотличимо от истинных 10 бит.


Ну а выводить 10 бит на монитор умеет тот же MadVR, но только в полноэкранном режиме, и мой монитор при этом переключается, а делает он это до безобразного долго, около 5 секунд.

Так можно же задать 10 бит глобально для системы, и не будет тратиться время на переключение.
Другое дело, что под Windows все равно придётся переключаться в полноэкранный режим для просмотра 10-битного цвета — это программно-маркетинговое ограничение.
Под Linux такого ограничения нет, но графический интерфейс начинает работать ощутимо медленнее.

Только не забывайте, что большинство мониторов делают точно такой же дизеринг и есть риски вступить с ним в конфликт.

Да, мониторы имеют FRC, но он мерцает пикселями во времени и ортогонален пространственному дизерингу.
То есть эти два эффекта, по идее, дополняют друг друга.


P.S. К сожалению, у меня под рукой нет TN монитора с 6-битной матрицей, чтобы проверить этот эффект.

Так можно же задать 10 бит глобально для системы, и не будет тратиться время на переключение.

Вот ХЗ, но моник иногда даже при разворачивании приложения переключается откуда-то куда-то, хотя казалось бы.
Я как-то сериал 720x400 из XviD в h.264 ХендБрейком конвертировал. Только потому, что плеер на планшете не понимал. Не то KMP, не то ещё какой-то.

P.S. Что-то в Хроме висит ввод комментов на Хабре.
«время отклика» для ЭЛТ равно межкадровому интервалу. То есть для частоты 60 кадров в секунду это будет 17 мс, для 85 — 12.
Но только для зажигания пикселя. Погасание может затянуться на несколько кадров из-за послесвечения люминофора

Впрочем, что это я — и на ЖК обновление пикселей происходит с частотой кадров, а время реакции матрицы добавляется к межкадровому интервалу как задержка.
> Погасание может затянуться на несколько кадров из-за послесвечения люминофора

Это разве что у какого-нибудь древнего осциллографа :)
Нет, там специально подбирается люминофор, который гаснет не сразу. Иначе просто всё мерцать начинает и это неприятно выглядит.
Во времена DOS у меня был монитор, на котором за текстовым курсором, если зажать пробел или стрелку, оставался шлейф из пары-тройки заметных «фантомов».
Учитывая, что частота повтора клавиатуры 30 раз в секунду, курсор сдвигается с периодом 0,0(3) с — получается, хвост шлейфа затухал через 0,1 с.
Вот опыта с EGA не было у меня практически, сразу с MDA/CGA/HGA перешел на VGA 640x480. И большое послесвечение помню только на MDA. CGA/HGA это телевизионные трубки практически, и там послесвечение люминофора было примерно в одну строку, а не кадр. Иначе бы не потребовалось поднимать кадровую частоту до прогрессивных 60 Гц, впоследствии до «безопасных» 75, «незаметных даже краем глаза» 85 и «полностью неотличимых от листа бумаги» 100 Гц, (а ведь по началу был режим 56i — чересстрочная развертка, замечу, что в CGA была вообще телевизионная чересстрочная развертка 48i).

Еще надо понимать, что процесс послесвечения люминофора аналоговый, низкие уровни послесвечения сохраняются очень долго, в полной темноте можно наблюдать послесвечение люминофора только что выключенного телевизора и хвосты при желании можно заметить, если знать куда смотреть. На ЖК матрицах, кстати говоря, тоже можно заметить хвосты, но причина уж не в люминофоре.
Я тоже начинал с HGC и зеленого монитора. Не стал уж про него упоминать, там хвост за курсором вообще в полэкрана тянулся.

ЖК да, тоже имеют свою инерционность — ведь молекулам нужно время на изменение положения. Но оно, по идее, очень маленькое.
Моим первым монитором была абсолютно дешманская Электроника МС 6105, которая «колольчик», там, к слову, шлейфа послесвечения не было. Наверное, трубки по качеству всё-таки разные были даже в то время.
Я конечно из статей на Хабре знаю, что когда-то величины вроде 80x25 символов были разрешением для монитора. Но во что-то древнее первого «Prince» и «Dangerous Dave in the Haunted Mansion» не играл, так что видимо застал более продвинутые технологии.
Они как раз в одно время были. Prince даже поддерживал CGA поддерживал. 320x200 — и вовсе не символов…
Я на каком-то ЭЛТ играл, может даже 15". ЕМНИП, это уже был Win 95, а потом и 98.
Тут еще есть пара моментов. Достаточно недорогой для своего времени F700P даже новым показывал… так скажем не идеальную картинку. Если сравнивать например с Sony G4**/F4** серий например. Ну и через несколько лет они все уже показывали совсем печально. Серьезные девайсы — они в производстве дороги. Там дохренища деталей, специфичных микросхем, специфичной фигни вроде датчиков магнитного поля, куча ручного труда специалистов (конвеерные макаки не справятся) для сборки и регулировки. Но в итоге оно может показывать практически идеально в плане геометрии и сведения, и практически не терять ничего с годами. Но даже своё чудовище я уже несколько раз чинил. И люминофор не вечен, выгорает, и это заметно. Но всёравно он классный.

Насчет аппаратного предела разрешения — он там есть. Это у монохромных мониторов можно разрешение вытягивать до размеров зерна люминофора, у цветных не так. Конкретно у платформы Mitsubishi 2060u — потолок около 0.20мм по горизонтали, по вертикали можно выставить что угодно, но по факту точность сведения будет где-то около техже цифр. Так что ставить что-то выше 1600х1200 есть смысл только для скриншота чтобы побольше влезло и в печать, или использовать аппаратное масштабирование с софтом, который не умеет что-то подобное сделать также красиво программно.
К большому монитору очень быстро привыкаешь.
Когда пересел с 19" на 28", то казалось, что слишком огромный.
Сейчас — посматриваю в сторону 32".
А какое у вас расстояние до монитора? А то, боюсь, вместе с монитором придется и стол покупать и квартиру )
К сожалению, даже с 24" глубины стола не хватает с учетом кронштейна. Приходится использовать кресло с подлокотниками.
Около 70 сантиметров — у меня масштабирование 100%, я хотел больше рабочего пространства :)

У меня до 32" ровно вытянутая рука, кончиками пальцев достаю.
Но лучше бы брал 28.

У меня коллега так же сидит, и я не устаю поражаться. У меня до 22" больше вытянутой руки (где-то ещё на ладонь) и то иногда хочется подальше.

В статье очень однобоко рассматривается прелесть большого монитора — чтобы буквы не расплывались.


А есть второе предназначение — больше контента поместить. В этом случае коэффициент масштабирования ставится не 2, а 1.5 или даже 1.25. И в таком случае он находится на обычном расстоянии. Считайте его просто как несколько обычных мелких мониторов, просто без рамок и расстояний между друг другом.

И правильно! У меня 32" 2560 × 1440 и очень доволен. Пробовал 43" 4К — за 3 месяца не смог привыкнуть и купил эту 32-ку. Стол самодельный, шириной 80 см. Счас померял — от плоскости монитора до края стола 62 см.
У меня 4К 43 дюйма. Сижу почти вплотную, проблему слишком широкого угла обзора решил размещением вспомогательных окон по периферии.
32" это хорошо. Только не сверхширокий, а 16:9, на котором и работать приятно, и три листа A4 рядом становятся + запас сбоку и снизу, и фильм можно посмотреть. Эффект «он слишком большой» проходит через пару часов работы, после перенастройки Windows и шрифтов в приложениях. Я вначале года брал такой.
Стоит 175%. Но я близорукий, у вас может быть другой подходящий масштаб. Ещё плюс монитора для работы — подавление синего цвета, немерцающая матрица, «картинка-в-картинке». Для фильмов можно временно включить HDR, а для игр — FreeSync.

Самый яркий момент при переходе на монитор 4K — это абсолютно чёткие тонкие линии в буквах. Как на бумаге.
Я вначале года брал такой.

Присматривался к нему с того года, а в итоге в этом взял Viewsonic VX3211-4K-mhd 31.5", минус 15 герц обновления, плюс -6т. цена.
Кстати, а у вас 75 герц пашет на 4к?
У меня под Windows 10 завёлся только на 60 Гц. Не знаю в чём там дело: то ли в шнуре, то ли в видеокарте, или в самом мониторе. Но мерцания не вижу, в динамические игры особо не играю, поэтому глубже пока не копал.
Спасибо. Значит сэкономил 6 тысяч, подожду ещё лет 5 до 4к 120 ггц.
Не очень понимаю каким образом можно нормально посмотреть фильм на мониторе, который «только не сверхширокий, а 16:9»? Не, если нравятся полоски сверху и снизу, тогда пожалуйста, компромисс имеет право на существование.
Эффект «он слишком большой» действительно проходит и вот сейчас мне хочется заменить свой 34" на что-нибудь типа 40+. Но это почти невозможно сделать, моделей мало и они дорогие.
А если фильм старый, 4:3, то можно вообще одновременно два фильма на одном мониторе в полный экран смотреть!
Не очень понимаю каким образом можно нормально посмотреть фильм на мониторе, который «только не сверхширокий, а 16:9»?

Практически всё аниме выпускается в 16:9, кроме старых тайтлов, которые могут быть квадратными. Так что почему бы и нет.

Да и все современные сериалы в 16:9 идут. Формат 21:9 используется только для большого кино для кинотеатров.

Ну да, кроме китайских порномультиков ничего же не существует в кинематографе )
Я как раз имел в виду фильмы в формате 2.4:1, т.е. практически вообще все фильмы за последние 20 лет. У меня нет телевизора, поэтому все фильмы смотрю на мониторе.
Телевизоры 16:9 (1.78:1), а все фильмы 21:9 (примерно 2.4:1). Многие сериалы 16:9, но сейчас всё больше переходят на примерно 2:1 (18:9). Такие дела.
На DVD фильмы выпускались или в формате 16:9 с полями сверху и снизу. Или в формате 16:9 с обрезкой краёв. Чаще всего кадр делали тупо по центру, но иногда встречались варианты интеллектуального кадрирования, когда в разных сценах кадр двигали влево или вправо. Как это выпускают на блюрее я не знаю.
>> Не очень понимаю каким образом можно нормально посмотреть фильм на мониторе, который «только не сверхширокий, а 16:9»? Не, если нравятся полоски сверху и снизу, тогда пожалуйста, компромисс имеет право на существование.

Я не то что киноман, но много смотрю кино и сериалов на компьютере. Почти все отлично походят под соотношение 16:9. Редко-редко встречаются другие соотношения. Ну и на большом мониторе даже полоски сверху не особо мешают.
Кстати, сериалы постепенно переходят на формат 2:1. Проблема в том, что эти замечательные люди зачем-то выпускают это в формате леттребокса, т.е. кадр 16:9 со встроенными чёрными полями. В итоге их 720p это не честные 720p, а примерно 560.
Я тоже не понимал что такое фильмы формата 2.4:1 (а это вообще-то абсолютно все фильмы) пока не купил монитор 21:9. Оказалось что это очень круто когда фильм идёт на весь экран.
Но только не подумайте что это у меня религия такая. Просто мне дома так удобнее. По центру стоит большой 34" монитор, а сбоку есть ещё 24", на котором я запускаю сериалы и всякие прочие стримы когда работаю на основном.
>> Я тоже не понимал что такое фильмы формата 2.4:1 (а это вообще-то абсолютно все фильмы) пока не купил монитор 21:9. Оказалось что это очень круто когда фильм идёт на весь экран.

Я не то, что не понимаю, такого нет. Просто 40" монитора позволяют даже с полосками иметь достаточно большую картинку. Но 720р (даже честные) на нем смотрятся отвратительно.
А наверное 40" 16:9 по ширине как раз соответствуют 34" 21:9. Просто ещё есть немного пикселей сверху и снизу.
Я давно хочу 40", но почему-то про 16:9 не думал, как-то упёрся в 21:9 и не рассматривал варианты. Может быть как раз есть смысл взять то же самое по ширине, но больше по высоте. Но тут уже, наверное, без 4К не обойтись. Значит начнутся все эти заморочки с «видеокарта не тянет X-Plane» и всё такое.
А наверное 40" 16:9 по ширине как раз соответствуют 34" 21:9
Хм, посчитал. Результат для меня несколько неожиданный:
34" 21:9 должен иметь ширину 793,8 мм
40" 16:9 — 885,5 мм

Другое дело, что я в магазине посмотрел как-то на телевизор 40" 4к с расстояния вытянутой руки, как я обычно смотрю на монитор — мне не понравилось. С пикселами — всё ок, но углы обзора, под которыми смотришь на углы картинки, такие, что кажется что смотришь на выпуклый шар.

Для меня, похоже, максимальный комфортный размер плоского монитора — 27"
Я сейчас просто померял. Дисплей примерно 798мм, если без рамок. 40" нашёл в интернетах, пишут 885мм.
Так что мне даже такой вариант даст увеличение по ширине. Жаль моделей особо нет (если не рассматривать 150К).
24" и больше — классные, но сайта например на 150% масштабировании смотрю и мониторов хочется штук 6-8 30+
32+27 — полет нормальный :) Но стол потребовалось поменять. Да
Жаль, что производителям мониторов эти все аргументы совершенно побоку.

Я вам более того скажу, вашим глазам эти аргументы тоже абсолютно побоку, на самом деле. По крайней мере, если речь идет о переходе со «стандартных» 92 dpi на более высокую плотность.

Я, например, прекрасно вижу разницу между 95 dpi и 180 dpi. Может глазам и побоку, но мне неприятно смотреть на пикселизированный текст.

Ну так есть же большая разница между физиологическим влиянием и эстетическим. Первое — явный повод предпринимать какие-то действия и что-то менять. Второе — сугубо вкусовщина. В статье давят как раз на первое, хотя этого на самом деле нет, разница между обычной плотностью пикселей и повышенной чисто эстетическая, и кому-то играет роль, кому-то нет.
В статье давят как раз на первое

а где именно в статье на это давят? Дайте цитату, пожалуйста, может я проглядел.

Мельком проглядел текст второй раз — прямой цитаты не будет, но я согласен что именно такое ощущение этот энтузиазм автора оставляет:
Я программист. Я не занимаюсь цифровой живописью, обработкой фотографий, видеомонтажом. Меня действительно не волнует широкая гамма или даже правильная цветопередача. Я провожу большую часть своих дней в текстовом браузере, текстовом редакторе и текстовом терминале, глядя на едва движущиеся буквы.

Поэтому я оптимизирую настройки, чтобы показывать действительно, действительно хорошие буквы. Для этого необходим хороший монитор. Не просто нужен, а ОБЯЗАТЕЛЕН.
И в заключении:
Текст не может выглядеть хорошо на дисплеях с низким разрешением.
Хорошо-нехорошо — это на самом деле субъективное «приемлемо». Мне вот сейчас на ноутбучном 96 DPI — читать текст нормально. На домашнем 1080p 24" мониторе я сижу так далеко, что иногда текст увеличиваю, опять же «приемлемо».
Год или два назад кто-то в комментариях на Хабре рассказывал, что вообще всё сглаживание отключал + надстройки, чтобы получить pixel-perfect шрифт как на Windows XP ЕМНИП (или была цель несглаженный шрифт?). Его скриншоты смотрятся именно что — по-другому. Хуже или нет — дело вкуса.

Никто не будет спорить, что при 4К (читай: выше DPI) текст будет выглядеть лучше. Но у автора — это вообще святой Грааль, а вы чукчи и, конечно, 4К 120Гц чуточку дороговат (2000$ — это у него сарказм такой или истинное непонимание?), но того стоит (тм)

У меня не возникло ощущения, что автор пишет о физиологии. Скорее об эстетике и комфорте. На самом деле я автора поддерживаю — каждый должен иметь возможность попробовать поработать за retina-like монитором чтобы выяснить для себя, что лучше. Подозреваю, что многие юзера сейчас пользуются старыми мониторами так как даже не знают, что на рынке существуют экраны, способные предоставить намного лучший опыт. И автор высказывает мысли в таком ключе, чтобы поднять этот вопрос, расшевелить рынок, так сказать.

С физиологией вопрос тонкий — организм приспосабливается ко всему и терминалы 60-х были чудом для своего времени. Другой вопрос, что если сделать экраны физически малоотличимыми от реального объекта, который они изображают — то это будет и эстетично и физиологично (по-крайней мере, нельзя будет сказать, что смотреть на экран вреднее, чем смотреть на реальный мир, который экран отображает).

Просто по мере развития технологии оказывается, что граница «малоотличима» отодвигается всё дальше и дальше — казалось бы, современные экраны очень хороши, но им есть куда ещё расти, и разрешение оказывается важно, чтобы было больше, чем глаз отличает (для той самой «субпиксельно» относительно восприятия точности позиционирования), и частота обновления (исследования показывают, что до 1000гц человек чувствует разницу, а краем глаза в движении можно и ещё выше улавливать мерцание) и скорость обновления (даже на 120гц айпаде «двигать айпад в пространстве» и «скролить текст на экране» даёт разный эффект, из-за блюра текста от того, что не мгновенно обновляется экран) и спектр (ака цветопередача) и минусы текущих технологий (плавание цветов под разными углами обзора, протекание света через чёрный и т.д. (блики, кристаллические эффекты).

Другое дело, что от энтузиастов (early adopters) к мейнстриму это понимание идёт меееедлено, а пока нет массового производства, то и все страдают (даже если и не знают об этом). Прогресс идёт узкими направлениями — тут геймеры требуют повышения частоты, там художники улучшения цветопередачи, здесь технология из телевизоров/кино приехала, тут в телефонах люди привыкли к качественным маленьким экранам.
Другой вопрос, что если сделать экраны физически малоотличимыми от реального объекта, который они изображают — то это будет и эстетично и физиологично (по-крайней мере, нельзя будет сказать, что смотреть на экран вреднее, чем смотреть на реальный мир, который экран отображает).

А что является реальным объектом, если на экране буквы?
Эстетично или нет — это дело вкуса. Как выбор шрифтов. По физиологии — нужно сначала доказать, что пиксельный текст вреднее (или не вреднее) гладкого. Это если экран фонит рентгеном, или мерцание вызывает эпилепсию боль в глазах, то сразу более-менее ясно, что для здоровья такой экран не очень.

Возможно, реальным объектом являются печатные книги в таком случае. Другой вопрос, что они тоже очень разные по качеству могут быть, причём может не быть единогласного мнения насчёт того идеально то или иное издание или нет.

с физиологией и психологией вообще вопрос тонкий — привычка, иногда все новое просто в штыки, но как только проясняются очевидные плюсы, сразу используют. А иногда попробовав, удивленно восклицают — «А что, так можно было?». Но это не везде работает, возьмите те же инстаграмм фильтры в стиле ретро или там с дефектами пленки — нет ведь зачем то «портят» фото этими фильтрами, нравится — потому что с ними фото выглядят «лампово».
Ну не знаю. Я сейчас сижу за 32"\2К — те же 92PPI, Попробовал 4К — не понял смысла. Ставить масштабирование — ловить блох по всем подсистемам, или постоянно переключаться. Без него — мелко, да и место жалко. Мне важнее больше размещенных объектов на экране, чем эстетическое наслаждение от чёткости букв
Ставить масштабирование — ловить блох по всем подсистемам, или постоянно переключаться.
А что за ОС, какой версии?
Ставить масштабирование — ловить блох по всем подсистемам, или постоянно переключаться.
Мы тут (и выше) как раз обсуждали баги масштабирования, и вроде как пришли к выводу, что если у вас 10-ка и мониторы подключены постоянно, то проблемы будут только уж в очень древнем софте, времен висты-xp.
Но если вы приведете примеры программ, где масштабирование не лечится параметрами совместимости, то можно будет развить тему еще.
Но если вы приведете примеры программ, где масштабирование не лечится параметрами совместимости, то можно будет развить тему еще.

Смотря что считать проблемой. Мыло это проблема?

Если мылится текст — да. Если иконки/картинки — нет. Вот пример старого приложения, к которому сам виндовс применяет масштабирование: https://prnt.sc/tfb8wg
Пользоваться можно, но выглядит не очень. В более новых приложениях такой проблемы нет (как пример: https://prnt.sc/tfbe0w )

Ну то есть Mysql Workbench это проблема. Или мыло, или весёлые баги с контролами, если выбрать «Система (Расширенная)».

Ради интереса поставил только что этот Workbench (https://prnt.sc/tfcfda) — таки да, это пример одной из немногих современной, но не адаптированной программы. Позор Ораклу. Но, в принципе, оно выглядит несколько лучше, чем то приложение, которое я приводил выше, пользоваться можно.

Приду домой, ещё могу накидать. Что-то чинится «Система (Расширенная)», что-то не очень.
uTorrent. В виде «Система (Расширенная)» выглядит благочестиво, но… При каждом запуске сбрасывает все настройки оттуда. Пока держится установка «Для всех пользователей».
AOMEI Backupper. Очередной кастомный интерфейс не выдержал современных реалий.
Заголовок спойлера
Скриншот AOMEI Backupper с мылом

Ковырялся тут с обновлениями, и поймал комбо — субпиксельное сглаживание, которое принудительно растянули.
Заголовок спойлера
Скриншот удаления обновления Windows с мылом

AkelPad. После приплясывания с бета-версиями из глубин соурсфорса в принципе норм, только вкладки остались прежними
Заголовок спойлера
Скриншот AkelPad с нановкладками

Так то оно попадается постоянно, просто я не скриншочу всё подряд. Иногда из окна uTorrent открывается мыльный проводник, иногда ещё чего происходит. Забавная эта штука HiDPI. В каждом отделе тестирования любого софта должен быть тестировщик на 150% масштаба.
Забавная эта штука HiDPI. В каждом отделе тестирования любого софта должен быть тестировщик на 150% масштаба.
Да, соглашусь.
Впрочем, все эти примеры терпимы в принципе.
125% ещё больше артефактов выдаёт. особенно если приложение пытается окно кастомизировать
Телеграм + два монитора с разным DPI. Ну и много какого софта не переносит перенос между такими мониторами. Аутлук, например, глючит интересно. частично масштабируется, частично нет, особенно с окном нового письма.

То есть под монитор и ОС выбирать, и от мобильности (даже вида системник вожу с работы домой и обртано) отказываться? :)

Вопрос выбора ОС для многих не стоит, ну и за Linux я не могу говорить, потому что сам пользуюсь только терминалом без иксов.
От мобильности отказываться тоже не нужно, нужно просто не подключать\отключать физически мониторы во время работы, либо перезагружаться после этого.
Год или два назад кто-то в комментариях на Хабре рассказывал, что вообще всё сглаживание отключал + надстройки
Это, небось, я:)
habr.com/ru/post/463799/#comment_20514385
fastpic.ru/fullview/106/2019/0816/99b291d35da095fb19d8aaf3e43f93df.png.html
Всё ещё жду нормального монитора 23" 4K. А пока что отрубаю всё сглаживание, так что всё выглядит a-ля Win98.
Дл крупных шрифтов сглаживание — это прекрасно. Но для мелких, когда количество сглаженных пикселей больше половины от всех пикселей шрифта, то как будто надел очки на здоровые глаза.
В точку, привет :) Но хождение по мукам viklequick запомнилось больше.
А вот и нижеследующий пример, как Chrome превращает шрифты в мыло. Где-то слышал, что это проблема из-за (кривой) конфигурации Skia. В итоге на Electron-based программы смотреть невозможно (а ≤13pt просто невыносимо). Это как раз те мелкие шрифты, которые сама ОС (Win7) рендерит на ура, в отличие от.
Где-то слышал, что это проблема из-за (кривой) конфигурации Skia

А где она прямая? По моему только Direct2D рисует нормальные шрифты, остальное мыло.
Подозреваю, что дело в видеокарте и её драйверах. У меня UHD 630, Chrome рендерит, как и Firefox — всё чётко. И на Win7, и на LTSB 2016, и на LTSC 2019.
Chrome не может рендерить чётко без плясок с бубном размером с эверест на Linux.
Увеличиваем и видим мыло )) Притом цветное.

Ну ещё бы, там же субпиксельное сглаживание включено.


Чётко например вот в этом посте.

Увеличиваем и видим лесенки из пикселей ))

Зато эти лесенки из чётких черных пикселей.
А в вашем тексте практически нету ни одного несглаженного пикселя. Вот сравнение вашего текста и моего Tahoma 12:
fastpic.ru/fullview/112/2020/0703/ca7a67e2c8107a213b54a4f3f7bb718e.png.html
Разрешение человеческого глаза: 1-2 минуты. Этого достаточно, чтобы видеть смазанность шрифтов на 23" FullHD на расстоянии 60см.

Я на 4к-экране этой смазанности не вижу. Даже если смотрю на монитор вплотную, выискивая эту самую смазанность.


Не делать же фотку монитора, в самом деле.

А я вижу. Впрочем, как уже писал, на 4к оно в принципе не мешает.
Извините, но это уже напоминает анекдот «а вы на шкаф залезьте!» :)
Протестировал и беру свои слова обратно, с оговоркой: когда я впервые увидел Chrome лет 9 назад (время...), то шрифты были действительно ужасны на реальной системе. После этого запускал только в виртуалках, поэтому не буду больше на это опираться.

Что ж, если в кратце: дело-таки в шрифтах!

Я сравнил Firefox и Electron (Discord app) друг с другом. При одинаковых настройках различий нет. Аппаратное ускорение: да, что-то изменяет (видно, если наложить слои XOR'ом), но незаметно для глаза.
Результатом оказалось, что «старый-добрый» Segoe UI лучше всего ложится на пиксельную сетку при 96 DPI, оттого и кажется чётче. Дело в новых шрифтах, что используют Steam+Discord (других вакханалий Electron на ПК пока не держу). Потому, когда Steam перешел от native чат клиента на Electron и казался текст мылом.

Скриншоты, 96 DPI:
100%, оригинал [160 КБ] (да, размер в настройках блокнота правильный)
400% увеличение через nearest neighbour [286 КБ] (чтобы не использовать неконтролируемое увеличение браузера со сглаживанием)

Тут для меня явный фаворит — это Segoe UI. Мне уже непонять, либо это сугубо личное (знакомый шрифт + пригляделся за года), либо он в самом деле рендерится с меньшим количеством сглаживания.

PS: Скриншоты сводил в Paint.NET 3.5, но он вроде субпиксельно не сдвигает картинки, поэтому ошибок быть не должно.
Забыл упомянуть, но увидел я это после тестов:
Font rendering
gfx.canvas.azure.backends > direct2d1.1,cairo,skia (old font rendering)
gfx.content.azure.backends > direct2d1.1,cairo,skia (old font rendering)

Отсюда. Firefox поддерживает несколько бекэндов для отрисовки шрифтов. Вот и всё — откуда могут быть (или не быть) различия.
Проблема и в шрифтах и в их сглаживании, причем не только в Хроме, но сейчас даже из ФФ убрали возможность отключить эту порнографию.
но сейчас даже из ФФ убрали возможность отключить эту порнографию.

В смысле?
Anti-Aliasing Tuner умер с переходом на Quantum, а ещё создатели Хабра сделали больно читателям без HiDPI-мониторов пару месяцев назад:
Ответ поддержки:
Мы перешли на так называемый Native font stack, то есть на использование шрифтов, встроенных в операционную систему и используемых в ней в качестве шрифтов «по умолчанию». Такой подход позволяет лучше согласовать оформление сайта с дизайном операционной системы и, кроме того, немного ускоряет загрузку, поскольку страница не подгружает отдельный файл со шрифтом. Соответственно, для замены шрифта вы можете изменить основной шрифт вашей системы или использовать расширения для браузеров, позволяющие применять собственные css-стили к странице.
Так они же, судя по ответу, не новые, а как раз системные? У вас и от системного UI тогда должны болеть.
шрифтов, встроенных в операционную систему и используемых в ней в качестве шрифтов «по умолчанию»

Только вот в моём Arch Linux стал использоваться Segoe UI, который ну вообще категорически не является нативным

Да, не очень похоже на «использовать системные»:
.comment__message, .comment-form__preview {
  ...
  font-family: "-apple-system",BlinkMacSystemFont,"Segoe UI",Arial,sans-serif;
}

Я установил) Только вот сам факт его установки совершенно не делает его системным/нативным

Это путаница в терминах. Для людей «старой школы» системный — это тот, что выбран в системе по умолчанию. Это настолько выходит рамки воображения типичного Web-разработчика, что об этом варианте они даже не думают никогда. Для них «системный» — это то, что стоит на компьютере пользователя и выбирается из списка, указанного в CSS
А в чём проблема поменять шрифты? Ставим Arial, отключаем субпиксельное сглаживание, и шрифты чёткие, как и раньше.
ну так я так и пишу — 2000 долларов дороговато, поэтому их не берите, берите за 750
Год или два назад кто-то в комментариях на Хабре рассказывал, что вообще всё сглаживание отключал + надстройки, чтобы получить pixel-perfect шрифт как на Windows XP ЕМНИП (или была цель несглаженный шрифт?).

Я и сейчас тут )) Правда на 4к мониторе это не так актуально, можно и со сглаженными сидеть, оно не так режет глаза.
А я наоборот, всегда нормально воспринимал видимость пикселей. Зато люто ненавижу любые средства сглаживания и вырубаю всеми силами.
Моим глазам не побоку, когда я вижу шрифты либо лесенкой (при выключенном Clear Type) либо мутные (при включенном).
Было 24, после 2 х 24, после 27, потом 2 х 27, сейчас 34. На данный момент могу сказать только одно: 24 — ОЧЕНЬ мало, 34 — много и не удобно. А вот 2 х 27 — идеально. Для меня, т.ч. сорри, если что.
Сначала использовал 2х24 FullHD, потом 4х24 FullHD вертикально, сейчас перешёл на 1х40 4K. Плотность пикселей не поменялось, пользуюсь примерно как 4х24, только без дурацких рамок.
И то второй без регулировки высоты.

Просто купите кронштейн. Можно сразу на два монитора (если вы используете несколько). Один раз вложили деньги — и со следующими мониторами можно не заморачиваться вообще. Бонусом — появляется место на столе, настройки осей будут всегда именно те, что нужны вам. Высота, наклон, поворот, вынос — всё, как вы захотите.

Мне очень понравились качеством изделия Arm Media: https://market.yandex.ru/catalog--kronshteiny-i-stoiki/56146/list?glfilter=7893318%3A10713369&onstock=1
Использовал несколько лет кронштейны на стену, сейчас подвесил на стол 2 монитора с помощью Arm Media LCD-T42 — поразительно устойчивая конструкция получилась.

Не все мониторы имеют VESA. А в последнее время так совсем много уж не все. Сам склоняюсь к свободному месту вместо подставок мониторов. Мне кажется 2х27 это самое оно. 2х32 уже слишком много места занимают.
Не все мониторы имеют VESA. А в последнее время так совсем много уж не все.

У моего есть, но расположено оно по глупому, сверху в тонкой части. Я конечно прикрутил, но иногда посещают сомнения на счёт прочности и долговечности такой конструкции, ибо болты сейчас вкручиваются тупо в пластмассу, да и никакой опоры или железного каркаса за ним не чувствуется.
Не все мониторы имеют VESA.

Это не проблема, продаются переходники на VESA. Я себе на кухню купил моник Dell 27" вместо телика, он без VESA. Купил сначала переходник, но он оказался очень громоздким и мешал открываться шкафу. В итоге сделал ему переходник на 3D принтере, быстросъемный с креплением типа ласточкин хвост.
Пользуюсь уникальным по своим параметрам монитором LG UltraFine™ 4K, но не новым 24", а старым на 21.5". Он работает по USB-C, а не Thunderbolt, имеет нативное разрешение 4096 x 2304 (218 ppi) и кучу других особенностей, вроде яркости в 500 нит. Есть и недостатки, конечно, например, маленькие и хрипящие динамики. Плюс никакие переходники вас не спасут, если у вас нет на видеокарте USB-C разъема. Я специально выбирал себе модель 2060 FE, чтобы там был порт VirtlualLink. На Маке и Intel NUC работает из коробки. Еще есть кое-какие танцы с бубном и платой за $64, чтобы заработало с любой видеокартой, но это того не стоит.
В целом, пользуюсь второй год и доволен как слон — яркий и четкий монитор, занимает немного места на столе. Жалко, что следующая версия на 24" оказалась менее удачной — меньше разрешение при таком же размере, меньше яркость, негативные отзывы про качество, поддержка только Thunderbolt 3.
аналогично, пользуюсь парой таких в офисе и дома 1 шт. из косяков бы я еще хотел отметить жуткое качество самого корпуса и подставки — такое ощущение, что это какой-то дешманский монитор за 100 баксов. Но матрица превосходна.
Еще косяк — если используешь пару таких мониторов, то надо подключать каждый своим кабелем к макбуку. Док станции с 2 usb-c видеопортами я не нашел.
еще засада, что там usb-c порты со скорость usb 2.0 всего
Док станции с 2 usb-c видеопортами я не нашел.

А мак в такое и не умеет. Подключал к dell latitude и xps в один type-c порт док на два монитора — все нормально. Тот же самый док с макбуком — изображение на мониторах дублируется, и все. Хотя в последний мак про не пробовал ещё.
это проблема не с маком, а именно с доками.
в данный момент у меня belkin thunderbolt 3 dock — он спокойно переваривает 2 4к монитора (asus mg24uq в dp и ullrafine 4k в usb-c)
virtuaLink передает видео out сигнал? Просто думал, что только для работы со шлемами
И на какой скорости это соединение?

VirtualLink — это просто стандартизированное объединение DisplayPort + USB3.1 в один кабель.

Я, как разработчик, столкнулся с тем, что нет 4K в варианте 16:10. Оно уже настолько привычно для разработки, что возврат от 1920х1200 к 1920х1080 — настоящая мука.
Да, матрица 27" 16:9 по высоте почти соответствует 24", но зато она настолько широка, что полностью ломает привычный процесс работы и шаблоны движения мыши по экрану.
Мне не нужен экран 27". У меня 3 монитора по 24", и они отличаются от просто широкого экрана тем, что на каждом мониторе свой отдельный контекст. Я никогда не смотрю на два монитора одновременно. Нужна информация со второго монитора — повернулся к нему. А широкий 27" экран заставляет меня постоянно вертеть головой при работе с одним контекстом.
Рынок правит миром.
Вот и я про что, я вообще не разработчик и вертеть головой мне не нравится. 24 — это максимум, который меня устраивает, 27 уже перебор.
Также много лет использовал 3 монитора 16:10 24" в горизонтальных и портретном режиме. Тоже придерживался подобной аргументаций и пару лет назад отказался от 27" по тем же «забольшой» и «вертеть головой».
Но вот недавно решился на радикальные 43" 3840×2160 в качестве основного монитора. Основной проблемой-ограничением оказалось рабочее место — нужен банально широкий и достаточно большой в глубину (чтобы отодвинуть монитор дальше привычного, увеличив масштаб).
Про «вертеть головой» забылось на следующий день. Сейчас лишь жалею, что не взял изогнутый — теперь понимаю, что это такие же предрассудки, которые развеваются через пару дней реального использования, когда представить возвращение к предыдущему «мелкоскопу» нереально.
Скромный вывод и совет от похожего по тону консерватора — попробуйте, не знаю как, но попробуйте пару дней поработать. Всё не так, как кажется.
Есть больше 10 лет — 3840*2400. Плюс на 27 и больше субъективно уже не так это критично.

Не думали о том, чтобы широкоформатные мониторы ориентировать не в альбомную (стандартную), а портретную ориентацию (ну, как мы А4 листом пользуемся в быту). И тогда по горизонтали проблем не будет, а т.к. ширина кода всегда стандартная (сколько там обычно — 80 символов?), то по вертикали будет влезать больше информации

зашел чтобы это написать. 16:10 значительно удобнее для разработчика, поле для кода становится больше.
По этой причине подумываю на счет нового dell xps 15, наконец то ноут с таким соотношением
Монторов с 4k и диагональю 24" (27 мне уже многовато) на яндекс-маркете ровно два

Просто поставьте свой монитор дальше, и получите улучшенный аналог 24".


Единственное, когда нужно 24" — когда слишком маленький рабочий стол. В остальных случаях это слишком мало, т. к. требует ставить монитор слишком близко к глазам.


Менее 27" — слишком маленькая диагональ.


Также менее 27" может быть актуально при нескольких мониторах, т. к. при нескольких нужен ещё более большой компьютерный стол — не у всех такой есть.

Купите нормальный рабочий стол — это не так дорого. Тогда сможете хоть 40" поставить, но дальше от глаз — размер картинки будет такой же, но глазам будет намного полезнее, т. к. не придётся напрягаться для фокусировки на близкое расстояние.


Дополнительно это решит проблему изменения размера картинки при изменении позы.

Я к тому, что чем монитор больше, тем всегда лучше для глаз и для пользователя. Главное, чтобы рабочий стол позволял вместить его.


Исключение составляют пользователи, у которых уже развилась близорукость, и которые теперь не в состоянии сфокусироваться на мониторе, который расположен слишком далеко от глаз. Но чтобы она не развилась, как раз и нужен большой монитор. Если же уже развилась, то не знаю, может плавно отодвигать монитор или сходить к врачу.

Какая разница какой физический размер монитора? Главное его угловой размер, не слишком большой, чтобы головой не крутить и не слишком маленький, чтобы видеть достаточное количество информации. Грубо говоря между 27" на 70 см или 24" на 60 см (цифры от балды, точно считать лень) разницы н едолжно быть заметно при прочих равных.

Какая разница какой физический размер монитора?
На самом деле разница есть, хотя и вторичная. 24" в 60см и 55" в 120см (цифры от балды тоже), отличаются тем, что во втором случае можно спокойнее двигать головой, глазу нужно не так сильно изменять фокусировку при движении от края к центру и обратно, изменение освещенности не так заметно и т.д.
Поэтому при прочих равных — чем больше тем лучше.

С фокусировкой и освещенностью согласен, с головой, видимо, не уловил.


Но есть ещё один критерий: прочие равные буду только если место не ограничено, ни, грубо говоря, столом, ни, руками.

С фокусировкой и освещенностью согласен, с головой, видимо, не уловил.
Сидишь обычно не неподвижно. Сядешь так, сядешь сяк, голову направо подвинешь, налево. Если монитор небольшой и недалеко, то любое неосторожное движение и вылетаешь из удобного центра, если большой и далеко — то чувствуешь себя свободно.

Но есть ещё один критерий: прочие равные буду только если место не ограничено, ни, грубо говоря, столом, ни, руками.
Мы со своей фрилансерской колокольни:) Телек 65" стоит столько же сколько моник 42", но при этом поставить его можно на таком расстоянии, что даже не придется особо думать где сесть что бы все было видно.
любое неосторожное движение и вылетаешь из удобного центра, если большой и далеко — то чувствуешь себя свободно.

Ну да, об этом как-то не подумал. Ниже тоже указали.

  1. Чем дальше монитор, тем лучше для глаз (меньше напряжение глаз, т. к. чем ближе объект, тем больше усилий требуется для фокусировки; особенно это актуально при длительных нагрузках).
  2. Чем дальше монитор, тем меньше изменяется угловой размер при изменении позы. Пример:
    • Маленький монитор:
      • Расположен на расстоянии 50 см. Расстояние до дальней точки (например, в левом верхнем углу) — 58.4 см.
      • После изменения позы мы отодвинулись на 20 см дальше, стало 70 см. Расстояние до дальней точки — 76.2 см. Расстояние после изменения позы увеличится в 1.30 раза, а масштаб текста станет меньше в 1.30 раза. Из-за этого может выйти ситуация, что когда мы придвинуты, текст слишком крупный, а когда отодвинуты — слишком мелкий.
    • Большой монитор (диагональ в 2 раза больше):
      • Расположен на расстоянии 120 см. Расстояние до дальней точки (например, в левом верхнем углу) — 134.4 см.
      • После изменения позы мы отодвинулись на 20 см дальше, стало 140 см. Расстояние до дальней точки — 152.5 см. Расстояние после изменения позы увеличится 1.13 раза, а значит масштаб текста уменьшится в 1.13 раза, а не в 1.30 раза как раньше. Это значит, что размер текста будет примерно одинаковым во всех позах.
      • Пояснение: тут можно заметить, что большой монитор мы расположили на расстоянии 120 см, а не 100 см. Так произошло, потому что расстояние было подобрано так, чтобы размер текста остался таким же в дальней позе. Дальная поза была 70 см, увеличили диагональ монитора в 2 раза — стало 140 см.
Но чтобы она не развилась, как раз и нужен большой монитор.

В большинстве случаев, близорукость — это изменение формы глаза, оно не зависит от близости экрана.

Цитирую с Wiki:


Также близорукость может быть вызвана спазмом цилиарной мышцы

К сопутствующим факторам появления близорукости относятся ранние и интенсивные зрительные нагрузки на близком расстоянии

В таком ключе близорукость — это симптом, а корневая причина либо


это изменение формы глаза, оно не зависит от близости экрана.

либо


может быть вызвана спазмом цилиарной мышцы

И я уверен, что постоянный спазм — это не очень полезно. И может приводить к продолжительным негативным последствиям

года 2 назад купил на местной барахолке asus mg24uq всего за 200 евро. Сделан на матрице самсунг, есть еще пачка от других производителей. У меня на столе не прижился, всё-таки разница с lg Ultrafine 4k есть, а вот жене зашло. Она использует со старой mbp. fullHD@2x
Думаю, что один из этих двух — LG24UD58-B. Купил себе как раз его, и в дополнение переходник DELL 470-ACFC DisplayPort over Type-C и сразу подставку Onkron D101FS. Итого за 25к имеем 4к 24" монитор с регулируемой подставкой и выходом тайп-с.
Можно купить за 2-4к₽ кронштейн на струбцине. Будет и регулировка по высоте, и места на столе монитор будет занимать меньше.
Четыре :) Но с нормальным ценником — три. Рекомендую DELL P2415Q, не смотря на то что сам я с него уехал на 27''
Ну Eizo из-за дикой цены вобще не рассматриваю, LG 24MD4KL какой-то исключительно для Apple, нормальных входов-то нет, ни DisplayPort, ни HDMI. Остаются два, LG 24UD58 без регулировки высоты и DELL P2415Q, единственный кандидат, его и планирую купить, если ничего не помешает.

Вот я купил 27" месяца полтора назад, всё измерил — идеально влазило. А теперь переезжать надо и уже непонятно, чуть ли не квартиру выбираю, чтоб было место куда монитор поставить. 27" — уже любой стол не пойдёт.

Всю жизнь читаешь книги, у которых графика заметно хуже обычного монитора.
Автор что-то хорошо покурил.
А вот пиксели часто крупнее. И читаются ничуть не лучше чем с обычного монитора.
Вот как на зло, под рукой только одна книга и она в порядке.
Хотя, может уже память обманывает. Но я точно помню очень крупные «точки» из которых рисовался текст.
Может, это был какой-то самиздат, печатаемый на матричных принтерах?
Я сейчас хотел сфотографировать кусочек из «Намедни», чтобы показать реальные границы неровности букв, но у меня банально не оказалось чем сделать макроснимок достаточного увеличения: недостатки камеры уже видно, а букв — ещё нет.
Кусочек абзаца с рулеткой для масштаба, снято телефоном с лупой
Некоторые сканеры очень хорошо апскейлят изображение, можно использовать как почти микроскоп

Посмотрите, например, на


это


лучше в отдельной вкладке, с увеличением. Как вам слово Exercise, например? Вживую выглядит очень размыто.


Что интересно, предыдущая страница выглядит более-менее


адекватно


Dover — это ведь не самиздат на матричных принтерах?

Что интересно, предыдущая страница выглядит более-менее

А разница в бумаге не ощущается? Выглядит как будто первая страница на более рыхлой бумаге.

Точек, если честно, не вижу. Вижу, что чернила по бумаге расползаются, т.е., дело в бумаге, а не в разрешении печати.
Exercise
Обратите внимание, даже у засечек на букве «Е» чётко видна форма
Для сравнения, вот обложка книги 1550 года, тут-то точно нет точек:
Alphabetum Græcum
image

Точек, если честно, не вижу. Вижу, что чернила по бумаге расползаются, т.е., дело в бумаге, а не в разрешении печати.

Ну это уже технический вопрос. Глаза у меня напрягаются и болят независимо от того, точки там или расползлось что-то.


Если бы эта книжка была в pdf (а не только в mobi и epub, которые убивают всё форматирование — кто вообще придумал техническую литературу публиковать в этих форматах?), я бы читал её с экрана с большим удовольствием, чем с листа.


Обратите внимание, даже у засечек на букве «Е» чётко видна форма

Зато C и I слилось (это что, лигатура?). И посмотрите там на Set — того и гляди, дырочка в e пропадёт.

Ну это уже технический вопрос. Глаза у меня напрягаются и болят независимо от того, точки там или расползлось что-то.
Я отвечал на утверждение, что в печатном тексте мало точек/низкое разрешение.
Зато C и I слилось (это что, лигатура?).
Нет, лигатура — это когда буквы объединяются вместе в новый символ, отличающийся от просто написания двух букв с перекрытием.
Иллюстрация
Я отвечал на утверждение, что в печатном тексте мало точек/низкое разрешение.

Да, забавно вышло. Я скорее о той части, где говорится о лёгкости чтения с монитора или с листа.


Нет, лигатура — это когда буквы объединяются вместе в новый символ, отличающийся от просто написания двух букв с перекрытием.

Это понятно, это я так сарказмировал.

выглядит очень размыто

Называется растискивание, потому что краска жидкая, а валик, с которого она переносится, немного вибрирует. Ну и потому что от бумаги очень сильно зависит: у вас в примере дешёвая тонкая матовая (uncoated), у неё растискивание сильнее. Зато контуры получаются плавные (размытые), именно это позволяет печатать фотографии на тонкой газетной бумаге в разрешении 180 dpi без особой потери качества (визуально). В примере из «Намедни» бумага дороже, плотнее и глянцевая (coated), там растискивание меньше.
Не знаю кто такой Dover, но если текст просвечивается с обратной стороны — то такими книгами только печь топить.

Ну, к сожалению, особых альтернатив нет. Приходится читать то, что есть.

текст просвечивается с обратной стороны

— популярное издание Конан Дойля из 8 томов было напечатано на очень тонкой плотной бумаге высокой печатью, и текст немного просвечивал с обратной стороны. Но этот совсем не то же, что некачественная оффсетная печать.
Когда-то работал в типографии. Там была машина фотовывода пленок, с которых делаются печатные формы для офсетных машин. Разрешение порядка 5000 (да, пять тысяч) dpi.
Я в терминологии не понимаю =)
На бумажке выходила итоговая картинка в 5к dpi? Потому что за исключением хороших дорогих книг, часто попадаются напечатанные на почти «туалетной» бумаге, шрифт паршивый и глаза устают. Да, сейчас то я умный, а тогда умудрялся покупать и такое.
Монохромная печать была в очень высоком качестве. Особенно на хороших мелованных финских бумагах. Но бумага, все равно, штука волокнистая, под микроскопом видно расползание краски по волокнам. А цветная печать была, конечно, похуже. Порядка 200 lpi (да, не dpi), но это из-за технологии смешения цвета для глаза, чем-то схожей с мониторами, но все равно другой.

Это из серии "Слышал я ваших Битлов… Рабинович по телефону напел".
Пока что ни DPI ни контрастность нормальной (даже не высококлассной) бумажной печати для дисплеев недостижимо даже в ближайшем будущем.

Работал в полиграфии верстальщиком. Макеты в типографию отправлялись в «фотографических» 300dpi. И это в основном для растровых изображений. Потому что шрифты все равно интегрировались как шрифты (pdf).

А если отправить им картинку с в 4 раза большим количеством пикселей, то не приняли бы?

Зависит от типографии, но последние 15 лет все работают с PDF/X-1a, там дистиллер сам пережмёт фотографии до 600 dpi (чёрно-белые до 300 dpi) и обрежет то, что выходит за границы bounding box. Если вы пересылаете исходники, то просто вставят «как есть», скорее всего, никто не будет руками downscaling делать. Ну или скрипт сам вашу картинку уменьшит, сконвертирует в CMYK и ещё какие-нибудь фильтры наложит.
Нет, чтобы что-то печатать, печать идёт всегда точками. Для этого векторные изображения (шрифты) растеризуются. Этим занимается RIP—Raster Image Processor, который и выводит плёнки, я видел и 12000 dpi плёнки, и сам делал кальки на 600 dpi (если не надо особо высокое качество или печатная машина старая).
Глаза устают не потому что «шрифт паршивый», а потому что бумага плохая (тонкая и тёмная, контрастность низкая) и напечатано так, что растискивание очень сильное (там куча факторов на самом деле: и бумага, и краска, и растворитель, и машина, и износ валиков, и прямые руки и иногда волшебство печатника) и буквы «едут».
Финальное разрешение в терминах dpi или ppl посчитать нельзя, есть LPI (lines per inch), но его по факту считают, печатая миры с известным количеством линий и шагом между ними. И понятно что даже внутри одного тиража LPI будет плавать.
Представьте себе дизайнера шрифтов, который тщательно сбалансировал каждую букву, поместил каждую точку с точностью до 1/100 пикселя

Нет, яблочники действительно верят в такое?
Можно было бы просто сослаться на гиперболу, но…
Внутри шрифта используется специальная система координат, в которой за 1 единицу принимается 1/N-ая часть кегля, где N = 1000, 1024 или 2048 (в большинстве случаев, но иногда бывает и больше).
Если взять дефолтный вебовский кегль 16px и поделить его на минимальные 1000 частей, то получится, что автор даже почти не преувеличивал.

Кстати, огромное спасибо вам за него.


Особенно за то, что в последних версиях можно делать произвольные стрелочки произвольной длины, хаскелисты одобряют.

Судя по всему, это автор думал так раньше скорее всего). А вообще что можно ждать от человека, который не разобрался с маркировкой USB перед написанием статьи и спецификациями мониторов.
Имхо hdr+цветопередача > герцы > dpi, но очевидно каждой задаче и каждому человеку свое. Но как обычно все упирается в цену
цветопередачу я еще могу понять (фотографы там, видеомонтаж), но hdr зачем нужен? игры?
Игры в меньшей степени, фильмы в большей. HDR еще для монтажа может пригодиться, кто-то ведь его монтирует, этот HDR. Но там без контрольного монитора особо делать нечего…
Сто лет кино но мониторе не смотрел. А что, много фильмов в HDR сейчас выходит?
На самом деле чуть ли не все 4К. Это, порой, и неудобства доставляет: хотел на работе посмотреть «Марсианин» со своего сервера Plex, а браузерный плеер не умеет ремапить HDR в SDR. В итоге получается выцветшая, почти бесцветная картинка. Пришлось смотреть дома.
На работе, к сожалению, Mac. И плеер с сайта вообще воспроизводить фильмы не хочет, выбивает ошибку.
тут вся статья про отображение текста, в этом контексте hdr и цветопередача вторичны

Переход на 4к монитор — это дорога в одну сторону.
Помню, как купил 4к монитор, подключил, поработал пару дней — вроде неплохо. Ну не знаю, стоило ли оно того, но дело сделано.
А потом практически случайно заглянул в старый FullHD монитор.
И тут я все понял :)

Герцы тоже, купил айпад, поиграл, ну неплохо. Взял телефон в руки, ба, что за стробоскоп, сел за компьютер — ааа, откуда слайдшоу.
На телефоне разница между 60 и 120 воспринимается поначалу примерно так же — плавное движение, по первости даже как-то не очень естесственно выглядит. Но только при скролле. При открытии приложении и во всяких анимациях между экранами особой разницы нет.

Фиг знает. У моей игровой машины 120 Гц-монитор. Спокойно после него сижу за рабочей с 60 герцами.

Да, если есть какой-то период между использованием одного и другого, то меньше заметно, а когда прям сразу берёшь после одного другое — бросается в глаза. Бросалось, по-крайней мере, полтора года спустя уже не обращаю на это внимания, поделать-то всё равно пока особо нечего. Но тренд однозначный — противников такого нет, спрос есть, поэтому ждёт нас высокий герц и высокое разрешение во всех девайсах со временем. Как это уже произошло с (более-менее) качественной цветопередачей.
Да, если есть какой-то период между использованием одного и другого, то меньше заметно, а когда прям сразу берёшь после одного другое — бросается в глаза.

Так в том-то и дело, что у меня игровая и рабочая машина стоят на одном столе.

Купил в этом месяце 144-герцовый монитор. Может, я слепошарый (а я слепошарый настолько, что в очках вынужден выставлять масштаб 150%), но разницы с 60 Гц не увидел. Ни в играх, ни при работе в 2D.

А на ЭЛТ-мониторе когда-то замечал разницу между 60 и 75, глазам было комфортнее на 75.

Возможно, стоило вместо герц вложить деньги в более высокое разрешение, чем 1920x1080, но, поправьте, если я заблуждаюсь, если мне при 1920x1080 приходится работать с масштабом 150%, то при 2560 x 1440 пришлось бы ещё больше увеличивать масштабирование и смысл высокого разрешения был бы потерян.
На ЭЛТ-то понятно, там кадры мерцают, и чем чаще перерисовываются, тем меньше успевает погаснуть люминофор.
P.S. Проверьте ещё, что у вас и в ОС выставлено 144Гц, и в играх успевает столько отрисовываться.
В теории — да, люминофор не мерцает. А на практике у меня на LCD при 60 Гц начинают болеть глаза, а потом кружиться голова. На 75 — нормально.
А на практике у меня на LCD при 60 Гц начинают болеть глаза, а потом кружиться голова. На 75 — нормально.

У меня такое было на старом (кажется, от samsung) мониторе, купленном в 2005 году. 60Гц ощутимо отличались от 75Гц тем, что на 60Гц ровно через две минуты начинали болеть глаза.
Мониторы, которые я покупал позже, в основном поддерживали максимум 60Гц, но глаза от них не болят.

Потому что на LCD панелях подсветка регулируется через PWM — отсюда и мерцание. На дешевых это делается соотв. хуже. В особо подробных обзорах панелей это тоже тестируют.
Если устают глаза, попробуйте уменьшить яркость. Не первый раз слышал от людей, как они этого не замечали и сидели с буквально красными глазами из-за монитора (а у некоторых мониторов контраст/резкость такие высокие по-умолчанию, что там только от этого глазам больно как по мне).

В моём случае в подсветке монитора были люминесцентные трубки дневного света. Неужели и они регулировались PWM, зависящим от частоты обновления экрана? На 75Гц было комфортно и по 12 часов за монитором сидеть, независимо от яркости.

Трубки CCFL тоже регулируются ШИМом (PWM), но от частоты обновления он никак не зависит, его частота задается чипом в мониторе. Для CCFL это обычно 175 Гц. Соответственно, возможна ситуация, когда частота ШИМа и частота обновления "синхронизируются", что усиливает эффект мерцания и ведет к боли в глазах. Изменили частоту обновления, "рассинхронизировали", все ок.

Если устают глаза, попробуйте уменьшить яркость.

От этого кстати может увеличится мерцание на низкочастотых PWM.
Да, верно, освежил память. Получается парадокс: яркость — усталость и низкочастотный PWM — усталось.
Можно подождать, пока сядут лампы, если это CCFL, и тогда можно будет выкручивать яркость.
Просто никогда-никогда не работать за монитором хоть с каким-нибудь ШИМ, в конце концов, поменять монитор можно в любой ситуации, а глаза — почти в никакой.
Надо использовать гашение яркости через гамму. Реализовано, например, во f.lux (https://justgetflux.com/). Минусы очевидны — влияние на цветопередачу. Но если без фанатизма, то работает хорошо.
Если я правильно понял, то наоборот, яркость надо увеличивать. PWM — это принудительное снижение яркости экрана через периодическое отключение напряжения.
Да. В статье, которую я Вам вчера выслал ЛС, так и говорится — увеличить «яркость» панели (=100% ШИМ) при этом сделать в настройках видеокарты меньшую яркость/контраст (=ЖК будут блокировать больше цвета, если я правильно понимаю). От этого по идее должно уменьшиться цветовое пространство то бишь контраст, так как ЖК никогда в таком режиме не будут пропускать свет на полную (а работать, допустим, в диапазоне 0%-50%)
Хм, теперь я знаю причину, почему за монитором меня начинает вырубать. Причём состояние не просто «кружится голова», а уже какое-то предобморочное состояние. Кстати глаза при этом не болят. Монитор даже не 60Гц, а 59.

BENQ GW2765, кому интересно
Да вот эта петрушка началась, как только купил этот монитор. Расстояние до монитора 100-120 сантиметров
Возможно, стоило вместо герц вложить деньги в более высокое разрешение, чем 1920x1080, но, поправьте, если я заблуждаюсь, если мне при 1920x1080 приходится работать с масштабом 150%, то при 2560 x 1440 пришлось бы ещё больше увеличивать масштабирование и смысл высокого разрешения был бы потерян.
Вопрос сводится не к разрешению, а к угловому размеру точки. Если Вам на мониторе при 1920х1080 приходится работать с 150% масштабом, то можно или а) сесть поближе б) купить монитор побольше размером. Второе разумнее.
Если посмотреть нормы санпина, то для комфортной работы 1920х1080 должно быть примерно на 24" мониторе (исходя из размера точка, размеров монитора, расстояния до экрана). Но попробуйте такое сказать публично где-то и Вас заклюют поклонники ретины:) Для 4к надо не меньше 42". Для 2560х1440 в районе 32" нормально.
Но попробуйте такое сказать публично где-то и Вас заклюют поклонники ретины

простите, что? Где именно поклонники ретины (например, автор этой статьи) диктуют логический dpi?

Из статьи
43% всё ещё используют мониторы с плотностью пикселей на дюйм менее 150:
Почему это проблема?

и далее по тексту много аналогичного.
Справочно: 1920х1080 при 24" имеет 90dpi.

А, понял вас. А можете, плиз, дать ссыль на эти нормы санпина, где прописан dpi для комфортной работы — хочу просветиться.

А можете указать, в каком пункте об этом говорится? Не смог найти ничего о размерах точки.

А Вы не издеваетесь случаем? Сначала Вы типа в статье не видите где про dpi сказано, потом Вам гост лениво погуглить, теперь уже в самом госте Вам надо конкретный пункт указать.
Окей, последний раз — «5.5 Ширина контура знака должна быть от 0,25 до 0,5 мм.»©
Контура знака! Про пиксели ничего не говорится. У вас может быть и 3 пикселя на эту ширину, и 300.
Вот прямо сейчас у меня на 4К экране эти буквы шириной около мм.

Я там вижу про знак. Где конкретно про точку? Знак может состоять как из 10 точек, так и из 100 (при ретине). Так что это явно не я издеваюсь.

Вы изначально говорили про «логический dpi», а не физический. Вот этот habr.com/en/post/508824/#comment_21792250 Ваш коммент, вспомните о чем была дискуссия все же.
Сколько бы физических дпи не было — хоть 10 хоть 100, логический дпи вполне четко определяется гостом.
Если Вы не разобрались что такое «знак», то ширина контура знака в минималке это как раз и есть один логический пиксел.
ad1Dima в данном контексте речь про логические пикселы шла. То что физически у Вас 240к экран может быть — не имеет значения, коль скоро Вы фуллхд выставили на нем.

Э-э. Я что-то потерял нить дискуссии. Конечно, в том комменте я говорил о логическом dpi. Давайте вернемся к исходному вашему сообщению, на которое я отвечал:


Если посмотреть нормы санпина, то для комфортной работы 1920х1080 должно быть примерно на 24" мониторе (исходя из размера точка, размеров монитора, расстояния до экрана).

Значит, здесь вы говорили о логическом dpi? И именно этот параметр диктует санпин? Ок, здесь я не имею ничего против.
Но, следующее ваше предложение:


Но попробуйте такое сказать публично где-то и Вас заклюют поклонники ретины:)

вот я, один из поклонников ретины, и я не вижу, за что вас должны заклевать. Поклонникам ретины строго пофигу, какой логический dpi предпочитает юзер, их волнует только физический dpi. Физического dpi должно хватать, чтобы физические точки не были заметны. Только и всего.

Покупал 32 дюйма, он огромный и не подходит для стандартного рабочего стола, особенно по высоте — приходится головой вертеть…
для обычного комп. стола нужен не более 27 дюймов, и соответственно не более wqhd 1440p. Проверено.
Ммм, а что такое «стандартный рабочий стол»? Их же в мире чуть ли не больше, чем видов бактерий. Но по-моему, 32" практически на любом столе нормально помещается, на достаточном расстоянии, чтобы головой не вертеть. Ну кроме совсем уж крохотных столов.

Ну вот у меня стол 70см глубиной (это много считается), 27" еле помещается на вытянутой руке — ближе уже башкой вертеть, что края экрана видеть не периферией.

Наверное разница между минимально допустимое разрешение и максимально приятное. Да можно жить на 1920х1080 на 24" но разве это жизнь?

Если взять угловое разрешение глаза (1 угловая минута) и посчитать разрешение на расстоянии 40 см от экрана, получится как раз 220 dpi. Что и называется Retina — размер пикселя соответствует разрешению глаза. Типа, верхний предел — дальше улучшать нет смысла. Но все что меньше — заметно хуже (при условии фиксированного растояния, если поставить монитор дальше, dpi будет другим, конечно).

А если поставить на 80, то будет как раз 110 dpi, типичный 1080p на 24" :) Я взял 27" 1440p с теми же 110 dpi, просто потому что два монитора дома ставить тупо некуда, надо менять всё начиная с квартиры

Заметьте, что 1 угловая минута — это угловое разрешение сферического глаза в вакууме. А так-то оно сильно зависит и от того, кто смотрит, и от того, на что смотрят. Поэтому дальше улучшать смысл есть, просто уже не все и не всегда смогут улучшение заметить.
Может там где-нибудь в системе меньше фпс, я хз. Но на айпаде про прямо невозможно не заметить разницу — все анимации, скролл и т.д. выглядит совершенно по-другому, натурально и fluid, я хз как описать, просто как будто двигается в реальности анимированный объект. А на соседнем 60гц мониторе сразу видно, что все анимации — это просто слайдшоу, когда окно сворачиваешь, то это просто 5-10 снапшотов постепенно уменьшающегося окна, а не плавное уменьшение и т.д.
на iOS система анимации отличается от таковой на винде\андроиде — при анимации у яблочных операционок дорисовываются слегка размытые копии анимируемого объекта, тем самым создавая плавность анимации. в других же операционках идет банальное покадровое изменение, без промежуточных обработок. на ютубе где-то видос даже проскакивал с записью всего этого процесса на высокоскоростную камеру
Не знаю так это или нет, но прошлый айпад или современный айфон это не спасает и разница с прошкой видна мгновенно.
Никакая ОС не блюрит анимации, насколько мне известно. Запись со скоростной камеры записала скорее всего переключение пикселей, которое случается немнгновенно на LCD. То есть шлейф создается как бы естественным образом, но опять же, он будет одинаков на любой ОС.
И это один из недостатков экранов, который ещё предстоит преодолеть.

OLED гораздо быстрее умеет переключаться и там блюр сильно менее выражен.
К сожалению, OLED-монитор для компьютера за разумные деньги пока не купить.

Да, ждём ещё микролед и иже с ними. Цена снизится с массовостью производства — это неизбежно. Самое смешное, что через десять лет, когда будут мониторы с реально заоблачным PPI, скоростью обновления в тысячу герц и охрененой яркостью (и цветопередачей), всё равно будет половина комментариев к очередной статье бухтеть «нахер это всё надо, понапридумывали фигни маркетолухи, вот на винде хп и пиксельных шрифтах 5*7 всё отлично показывало» =)
всё равно будет половина комментариев к очередной статье бухтеть

Я уверен, что все эти 9000 PPI загадят фиговым софтом, и картинка там реально будет такой же, если не хуже, чем на XP и ЭЛТ.

Зачем нужен заоблачный PPI? После 300 разницу можно увидеть только разглядывая экран вплотную.
А для 1000 Гц нужно уметь полный цикл отрисовки успевать в 1 мс. При том, что сейчас многие приложения даже в 16 не всегда укладываются.

Читал большой-большой текст по технологиям растеризации текста и там чётко описывается, что хотя глаз и не может различить отдельные пиксели, но для шрифтов практически нет предела разрешения с которым их можно рендерить и качество будет улучшаться. Условно говоря, мы не различаем, что штрихи буквы находятся на расстоянии пять пикселей или шесть, но в целом страница текста будет выглядеть ещё лучше и аккуратнее если будет возможность расположить эти штрихи с точностью 5.125 пикселя и всё в таком духе.

А про рефреш рейт — пока запроса нет, то и программ таких не будет, когда появляется техника способная такое воспроизводить, появляются люди способные оценить (и оценившие и требующие), появляется софт, который будет укладываться и люди будут видеть разницу и требовать у остального софта подтянуться :) Но это всё не быстро, конечно.
для шрифтов практически нет предела разрешения с которым их можно рендерить

У техники есть ограничения по pixelrate, который она может выдавать :(
И любое увеличение плотности пикселей ведёт к квадратичному росту требуемой производительности и ширины всех каналов.


А про рефреш рейт — пока запроса нет, то и программ таких не будет

Есть такой запрос — VR. Чем выше refresh rate и чем ниже общая задержка всего цикла motion-to-light, тем реалистичнее ощущается виртуальный мир. На текущих технологиях мы где-то в районе 2880x1600@144 Гц и 22 мс. Это на самых топовых компьютерах, в простых по графике играх, с кучкой специфичных оптимизаций драйверов.

Да-да, надо было написать «пока запроса не было», сейчас-то он вполне есть, благодаря VR'ам, да прочим киберспортивным геймерам. Ну вот они и оплатят для нас для всех low latency разработку, как до этого оплатили создание видеокарт :)

То, что сегодня «топовые компьютеры с кучкой специфических оптимизаций» имеет все шансы через десять лет стать просто обычными компьютерами с обычными драйверами.
То, что сегодня «топовые компьютеры с кучкой специфических оптимизаций» имеет все шансы через десять лет стать просто обычными компьютерами с обычными драйверами.

Это да. А вот по поводу бурного прогресса в топовых компьютерах через 10 лет у меня большие сомнения.
Пока выглядит так, что единственным реальным способом повышать разрешение и снижать задержки является отслеживание движений зрачков и отрисовка в высоком разрешении небольшой области в центре взгляда. Длительность и предсказуемость траектории саккад вполне позволяет проворачивать такой финт за время подготовки кадра.
Но вот обычным мониторам и прикладным программам это никак не поможет, как не помог гейминг в 120 Гц за последние 15-20 лет.

Поможет, поможет. Последние 15-20 лет занимались в основном валовой производительностью, как бы больше провернуть операций, а задержка вообще никого не волновала. Лет десять назад наверное вообще локальный минимум был — ЭЛТ с непосредственной отрисовкой уже издохли и на замену на выбор медленнющие ЛСД мониторы с ИПС/*ВА и херовейшие по цветам TN с относительно быстрыми матрицами, про инпут лаг ещё мало кто слышал и от мало кто задумывался требовать от браузера стабильных 60фпс, а вспомнить что тогда было на телефонах так вообще труба — слайдшоу из-за хреновеньких экранов и плохой производительности, да и софт был ппц, всё подряд блокировало отрисовку и т.д.).

Потом постепенно и инпут лаг заметили (и начали бороться, потому что потребители требовательные ныли) и кристалы пожиже налили, чтобы быстрее переходы цвета были, и овердрайв всякий. И эпл потихоньку с плавностью на девайсах показывал как можно. А потом бац, VR и туда-сюда, обнаружили, что у нас быстрее сигнал на другой континент ходит, чем от нажатия кнопки до появления символа на экране и что оказывается, человек-то чувствует разницу чуть ли ни между единичными миллисекундами задержки.

Ну а потом уже не провернуть фарш назад — технология есть, спрос есть, будет постепенно распространяться. Вон интересно читать как чувак из убунты с гномом борется — цель простая — сделать чтобы лагов вообще не было, и оказывается, что много проблем не от сырой производительности системы, а просто это никогда не оптимизировали и код писался в виде «и так сойдёт» и никто никогда не смотрел как всякие таймауты и расчёты бюджета на кадр работают, отчего постоянно всё рендерится разное время. Но по сути проблемы-то смешные — игры на любой встройке могут 3д мир из миллиона полигонов отображать под триста кадров, а тут смех — десяток прямоугольников с текстом за тоже время.
про инпут лаг ещё мало кто слышал

Геймеры в массе слышали и выбирали устройства по нему. С тех пор мало что изменилось.


а вспомнить что тогда было на телефонах так вообще труба — слайдшоу из-за хреновеньких экранов и плохой производительности

Как раз ровно 10 лет назад вышел iPhone 4, который к неплохой производительности и отзывчивости интерфейса добавил Retina экран.


да и софт был ппц, всё подряд блокировало отрисовку

Нет, конечно. Нормальные программисты и тогда разделяли потоки UI и основной работы. А с ппц софтом всё только хуже становится — electron везде, flutter заводят под лозунгом "стабильных 60 fps", которые он не может выдать даже на последних iPhone с процессором мощнее чем в моём ноуте.


Потом постепенно и инпут лаг заметили (и начали бороться, потому что потребители требовательные ныли)

Не вижу я этой борьбы. И отдельные фанатики latency тут ничего не решают.

Когда вижу реальные 60 гц видео в ютубе, конечно они супер плавные по сравнение с 25-30 кадрами, но я не знаю будет ли плавнее при 120, наверное это только для резких игр критично.
Эту разницу я всегда видел по ТВ. Когда прямая трансляция, то люди двигаются плавнее, чем, например, в художественном фильме.

Разница между 24 кадра фильма и 50-60 кадров ТВ и видео заметна, наверное, всем людям. А вот заметно ли разницу между 60 и 120 кадров даже проверить не на чем. Скорее всего, тоже будет заметно, но насколько — вопрос.

Именно что лишь двигая мышью и можно увидеть разницу; однако, не проще ли просто переключить тогда мышь на другое разрешение, чем переплачивать за частоту?