Pull to refresh

Comments 991

потому что вы просто закончите с рождественским цветным беспорядком

Статья же про зрение и глаза, да? Вытекают. Неужели какое-нибудь "вы получите рождественский цветной беспорядок" в голову не пришло?

Так перевод же. Причем оригинальная фраза
end up with a christmas light mess
на самом деле переводится как «избавитесь от рождественской гирлянды».

Если бы там было "You'll just end a cristmas light mess", то это можно было бы перевести как "Вы просто покончите с этим разноцветным безобразием". Но там "end up with" — идиома, означающая "получить что-то в результате".


То есть перевод — "у вас просто получится разноцветное безобразие". Можно перевести дословно: "мешанина рождественских огней", но это как-то натянуто. "Неряшливая ёлочная гирлянда" вроде бы получше.

Во-первых, как уже сказали, переводится не так. Во-вторых — переводить надо литературно.


"Закончите с беспорядком" я, к примеру, автоматически в уме поправляю на "покончите с беспорядком" — а это совсем не то, что имелось в виду в английском тексте. Понять, что имел в виду автор, мне помогло только знакомство с английским выражением.

Жаль, что производителям мониторов эти все аргументы совершенно побоку. Монторов с 4k и диагональю 24" (27 мне уже многовато) на яндекс-маркете ровно два. И то второй без регулировки высоты.
Потому что, очевидно — нельзя впихнуть невпихуемое, сделав настолько мелкие пиксели. Ну или нерентабельно.
UFO just landed and posted this here
Есть и телефоны с 4к экраном :)
А большие матрицы, чтоб подешевле было, как в этих ваших погремушках, вы предлагаете методом склейки из маленьких тайлов делать? Ну да… можно! Только сеточка из краёв склеенных маленьких дисплеев немного будет раздражать.
Можно получить 26 дюймов из 4-х этих ваших 13-дюймовых… крест по середине это мелочи, да, зато модельный ряд сразу расширится, если все так делать начнут

На телефонах уже 4к есть, так что все спокойно впихивается. Просто спроса, видимо, пока что нет такого большого.

А будет ли он без таких статей? :) Да и с ними — монитор обычно на годы покупается, просто так бежать и покупать новый монитор, увидев, что что-то на рынке прикольное появилось, мало кто будет.

Да и статья-то высосана из пальца.
Автор какой-то странный. Буквы у него размытые. Он протереть экран не пробовал?
Высокое разрешение нужно, например, при работе с чертежами в Autocad, иногда нужно вывести на экран вид с большим количеством мелких деталей и чтобы при этом надписи читались — приходится постоянно увеличивать разные участки.
Но тут возникают как минимум две проблемы.
Первая — найти монитор 4k с диагональю 20"-22" (больше не влезает в поле зрения, нужно крутить головой).
Вторая — большое разрешение для нормальной работы требует больше вычислительных ресурсов.
Как вариант, существуют ноутбуки 4k с диагональю 15,6".
В любом случае, одно рабочее место будет стоить 100-150т.р., сомневаюсь что хотя бы на одном предприятии в РФ инженерам поставят такое.
Где-нибудь в Боинге может быть проектировщики на таких и работают, но не у нас.

Первая — найти монитор 4k с диагональю 20"-22" (больше не влезает в поле зрения, нужно крутить головой).

Монитор от головы отодвиньте. Получаете меньшее поле обзора с меньшим размером пикселей (удвоение расстояние эквивалентно эффективно удвоению dpi). Двойной профит.
Вообще, большинство описанных в статье проблем решаются нормальным расстоянием до экрана.

Иногда чтобы отодвинуть монитор нужно квартиру новую купить Ж)

В такой квартире монитор за 2к баксов будет смотреться как-то издевательски. Все знакомые будут язвить: " мог бы вместо монитора квартирку попросторнее прикупить!".
Не у всех орлиное зрение. Мне лично некомфортно, если монитор дальше 75 см.
А если увеличивать масштабирование — то это получается шило на мыло, получаем столько же информации сколько на 1080 но на отодвинутом мониторе.
Большие диагонали скорее для кино и гейминга, чем для работы. Возможно где-нибудь в полиграфии и дизайне они тоже нужны.
Информации столько же, плотность пикселей (на угловую минуту) — больше.
Зато будет глазам легче фокусироваться
Не у всех орлиное зрение. Мне лично некомфортно, если монитор дальше 75 см.

Вам тогда и dpi высокий не нужен.

Вам тогда и dpi высокий не нужен.

Вот как раз после работы на 27«4К мониторе и MBP Retina как раз уже хочется для текста высокого разрешения.

А мне вот норм головой вертеть :D У самого 21:9 монитор на 34 дюйма. И еще один на 24 дюйма рядом для мелочей. Оба правда 1080p. Сижу где-то в 70 см. от него и вообще норм. Чеб шею и не поразминать)

Работа. с АКАДОМ постоянно. Разрешение — чепуха. По мне главное — размер экрана. Дома — 27" нормуль — открыт чертеж и какая нибудь таличка-страничка. На работе 24" и второй — полусписанный 17". На одном псотоянный чертеж, на втором — справочные данные — табличку и т.д. Там и цветопередача фуфел и разрешение, но в принципе хватает. В идеале для КАДА2 монитора 24-27". При этом не требуется огромное разрешение.
Домашний монитор брал лет 7 назад — Китай с матрицей Мака (типа во вторую смену завод делает :) ), Мак и лыжа — разницы на АКАДе не вижу. И глаза не устают.
Домашний монитор брал лет 7 назад — Китай с матрицей Мака (типа во вторую смену завод делает :) ),

а что за чудо такое?
Да даже DNS их продавал под своим брендом — был момент, когда наладили корейцы на маковских матрицах, не прошедших отбор apple, производство «мониторов без нифига и с хорошей матрицей за копейки». Там первые модели реально были — кнопка включения, DVI и разъем под кабель питания, всё. Потом уже появились менее кустарные модели… а потом матрицы кончились. 27" точно были, может и 24" еще, не помню уже.
ACHIEVA SHIMIAN.
После рабочего Мака — разницы глаза не увидели.
В староглиняные времена так и работали — на текстовом дисплее вводишь команды, на графическом видишь результат )
Я по старинке — у меня на 27 чертеж, на мелком — интернет, справочник. расчеты, пояснительная записка…
У меня близорукоть. Большая. Так что нормальное расстояние до монитора в очках — примерно 25-30см, так что мне норм зайдет даже 24" 4К без масштабирования. На большем расстоянии пользоваться некомфортно.
At the risk of sounding like staraya babka — как же люди раньше программировали на мониторах 1280x720 или, прости господи, 480 строк? Я понимаю, прогресс, все дела, но статья больше похожа на рекламу из разряда «Вы всё ещё стираете свои носки с мылом и сушите их на батарее? Какое ретроградство, вам срочно нужен этот промышленный порошок и промышленная сушилка! Вы ведь ходите на улицу в носках каждый день, даже в выходной, неужели вы не хотите это делать в идеально выстиранных носках?»
Ну да. А раньше писали в 40*25 символов. А ещё раньше — перфокарты. И ничего, вполне программировали. Но многие вещи стали всё же гораздо удобнее.
А чем удобно платить в несколько раз больше, чтобы получить то же количество текста на экране? Который ещё и читать будет сложнее?

Наверное, затем, что важно не только количество, но и качество отображения текста? Пассаж про "сложнее читать" не понял.

Пассаж про «сложнее читать» не понял.
Все современные шрифты, без исключения, сложнее читать, чем растровые шрифты конца XX века. Просто потому что природу не обманешь — контраст любых современных шрифтов гораздо меньше, чем контраст жёстких, резких, шрифтов Windows 3.0 или даже Windows 2.0. Которые не требовалось подгонять под сетку — они были такими от рождения!

Просто потому что тогда у вас выбора не было: то месиво, в которое вырождаются эти шрифты даже в крупных размерах (типа 14 pt вместо 7pt — вполне себе имитация той самой злощастной «ретины») — на старых мониторах с плохой фокусировкой различить были бы невозможно в принципе.

Потому тот факт, что совренные шрифты хуже читаются — это просто факт. Его легко проверить.

Наверное, затем, что важно не только количество, но и качество отображения текста?
Да, можно найти 100500 причин (начиная от эстетики и кончая разного вида психологией) почему это круто для всяких ваятелей рекламных брошюр и объявлений… но нафига всё это программистам?
но нафига всё это программистам?

очень странный вопрос. Наверное затем, что программистам тоже не чужды обсуждаемые причины (те, которые "начиная от эстетики и кончая разного вида психологией")?

Наверное затем, что программистам тоже не чужды обсуждаемые причины (те, которые «начиная от эстетики и кончая разного вида психологией»)?
Ну если у вас лишние деньги в карманах — то это ваш выбор, но зачем же так яростно ваши личные модные хотелки продвигать?
Сложнее читать непривычный шрифт. А легче всего читать привычный, даже если он состоит из дискретных точек. Поэтому если вы занимаетесь программированием, лучше всего вам использовать везде принудительно один и тот же шрифт. Ещё и растровый.
Это не слишком сложно, если вы действительно занимаетесь программированием.
Забавнее всего, что самое простое и очевидное решение: использовать растровые шрифты — отвергнуто с порога.

Ну что за детский сад, ей-богу: матрицы 5x7 более, чем достаточно чтобы различимо отобразить все латинские и русские буквы. И всё.

Да, я знаю: UX'ы плачут и объясняют, что я ничего не понимаю в шрифтах.

Возможно. Но зато я точно знаю, что если не содавать самому себе проблем и не искать красивостей там, где они не нужны — то и решать оные проблемы не потребуется.
Ещё неплохая альтернатива — всё писать как индексы на советских конвертах.
Это отлично выглядит на старых векторных мониторах, но я только в музеях видел, шанса поработать не досталось.

А на растровых мониторах это отвратно выглядит…
Я типа такой проектировщик. Не Боинг, но очень типа того. (Давным-давно Боинг входил в нашу корпорацию. ) С такой необходимостью не сталкивался. Хотя, может тем, кто чертежи оформляет пригодилось бы.
Так я за свои купил на работу обычный второй моник, б/у,$80. Моя самамя лучшая инвестиция. Компания еще несколько лет не предлагала доп. монитор.
Хотя, к эргономике отношение религиозное.
Монитор IBM T220 из 2001 года смотрит на вас с улыбкой.
Цветной телевизор с элт, подключенный к zx-spectrum из 1985-го года смотрит на вас с нескрываемой иронией во взгляде)
Вы не поняли иронии. Разрешение IBM T220 3840×2400 при диагонали 22.2" (плотность 204ppi), 41 Гц. В 2001 году! Без всяких DP, Thunderbolt'ов и прочих этих ваших макосов… За смешные (хотя и вполне адекватные для такого уникального продукта) $8400 (в 2003 году). Хотя очередей за ним, ясно, не выстраивалось… Подключался двумя LFH-60 (которые собирали сигнал из одного или двух DVI, то нужно было 1, 2 или 4 DVI-выхода). А дальше ещё веселее — моник комплектовался карточками Matrox G200 MMS. Если помните, в 2001 только-только появлялся AGP, бал правили всякие Вуду, С3, и Рива ТНТ (это была просто мечта). Так вот те чипы, которые разработала Matrox 20 лет назад, поддерживается до сих пор (последний апдейт дров от DELL — конец мая 2020), используются в серваках…
Отличная вещь, только для современного железа не очень совместимая. А если еще учесть что пару лет назад VGA порт ушел в полный Deprecated — всё грустно. Сам пользуюсь Compaq P1220. Отличный аппарат. Может до 2560х1920 на 60 герцах, но не на каждой видеокарте. Таки аналоговый сигнал в 400МГц для современности непозволительная роскошь. И очень привередлив к качеству кабелей. А так основное рабочее 1600х1200х100 — всё четко и плавно.
Так я и не выступаю в роли некромантов/филов… Для того времени это было что-то запредельно крутое, по теперешним меркам — ну так себе…
Когда-то тоже помню прыгал от счастья, когда смотрел в только что купленный LG Flatron F700P (после какого-то 14" древнего самса, уже и не вспомню)… С его 1920 x 1440 и «всего» 65 Гц… Фишки ЭЛТ, кстати, в том, что они перерисовывают картинку по-честному каждый раз (а не держат её в буфере, как делают ЖК); и в идеальном аппаратном масштабировании (нет сетки пикселей — нет необходимости пытаться впихнуть невпихуёвымаё или что-то пересчитывать). Ну и скорость света (а именно с такой скоростью отрисовывается картинка в ЭЛТ) — тоже не хухры-мухры… )))
Вот, к слову, автор статьи ни разу не обмолвился об ЭЛТ, хотя то же Compaq нативно может 2048x1536 / 80Hz, и это будет выглядеть гарантированно лучше, чем любая покоцанная рескейлом картинка (и особенно динамика) на ретине… И этого точно хватит для разработки и красивых шрифтов… Однако же, потребительские качества (в виде компактности) выходят на первый план, и мало кто может позволить себе держать «архаичную бандуру» на столе, хотя бы и она давала картинку лучше… Маркетинг такой маркетинг…

Вместо сетки пикселей в них "сетка" люминофора, "размер зерна" помните понятие? Электроника hires режимы поддерживать могла высокие, но два соседних пикселя разных цветов вполне могли оказаться слившимися в хорошо так заметную градиентную полосочку с чистыми цветами по краям и чем-то средним в центре

Вместо сетки пикселей в них «сетка» люминофора, «размер зерна» помните понятие?
«Размер зерна» сильно меньше влиял, как это ни странно.

два соседних пикселя разных цветов вполне могли оказаться слившимися в хорошо так заметную градиентную полосочку с чистыми цветами по краям и чем-то средним в центре
Не могли. Ну то есть вообще никак.

Зерно, во-первых, не обязано было быть зерном (Тринитрон, да), а во-вторых — и «зерно» и, уж конечно, вертикальная полоска люминофора, не загорались целиком. Свет излучался там, куда попадал электронный луч — то есть яркостная картинка строго соответствовала задумке — а вот уже с цветами всё могло быть не так просто. Это можно даже на картинке из Wikipedia заметить — там белая букве «e» под микроскопом и на ней заметно, что слева задействуются больше красного, а справа — больше зелёного.

Никакой ClearType так не может. LCD просто чисто аппаратно не может зажечь полпикселя. А поскольку цветовое зрение человека сильно менее острое, чем чёрно-белое, то при том же разрешении картинка на экране LCD — заметно хуже воспринимается, чем на экране CRT.

Вот если приблизиться гораздо ближе к экрану, чем обычно (или, вообще, посмотреть на него в лупу) — то может показаться, что разницы между LCD и CRT вообще нету. Но она есть — если знать куда смотреть…
Кстати этот эффект в действии лучше видно как раз на картинке в статье теневая маска. Там как раз очень хорошо видно вот эти самые засвеченные на ¼ или на ¾ кружочки.

Таким образом форма мелких объектов на CRT передаётся отлично (и независимо от разрешения вообще), а вот цвета… да, цвета страдают. Но это можно заметить только если у вас жуткая близорукость и вы буквально «носом в монитор» упираетесь.

Кроме маркетинга ещё и бывает сложно решить проблему куда поставить "архаичную бандуру" дюймов на 19, чтобы носом в неё не утыкаться.

UFO just landed and posted this here

/sarcasm/ представляю себе ноут или планшет с элт трубкой, вместо lcd матрицы

Ну с планшетами — да, будет проблема, но первые перносные компьютеры вполне себе использовали ЭЛТ. В частности тот самый знаменетый Osborne в честь которого назван Эффект Осборна.
И они таки были! Например, упомянутый выше
самый первый «ноут» Osborne 1, 1981 год
Osborne 1

Или
IBM Portable Personal Computer 5155, 1984 год
IBM Portable Personal Computer 5155
IBM Portable Personal Computer 5155
Конечно же, потребительские качества ЖК в среднем по больнице выше, чем ЭЛТ. То есть плохенький ЖК, конечно, проиграет лучшему из ЭЛТ, но если брать представителей ± одного класса, конечно ЖК будет лучше почти во всём. Почему почти? Ну вот навскидку пара параметров:
Углы обзора. Для ЭЛТ такого понятия не существует в принципе, там угол будет 180 (а если моник не плоский, то даже чуть больше))), и это будут честные градусы, где картинка не будет меняться вообще никак. Даже на распрекрасных (без сарказма) Super AMOLED plus картинка меняется, не говоря уже про IPS-LCD и тем более TN…
Время отклика «матрицы». Опять же, для ЭЛТ это без малого скорость света (понятно, что реальные устройства ограничены скоростью преобразования сигнала в аналоговый).
Равномерность подсветки. Если (ошибочно) допустить, что люминофор выгорает равномерно, то яркость в любой точке ЭЛТ будет одинакова. В ЖК (кроме семейства OLED).
Рискну предположить, что существует некоторая небольшая ниша, где важно отображение именно аналогового сигнала безо всяких аппроксимаций (возможно, какие-нибудь осцилографы и т.п.). Тут точно ЭЛТ (но не те, которые с решётками/масками). Хотя скорее, это я уже за уши притягиваю; думаю, разрешающей способности современных ЖК должно хватать всем…
Может найдутся и ещё какие-то критерии, где ЭЛТ будет лучше. В остальном они, конечно, сильно проигрывают… Потому и ушли на заслуженный покой с рынка… Так что тут вы правы и я с вами согласен.

А про маркетинг — это я больше про статью. Очень мало кому действительно нужна ретина, для большинства же она даже может стать источником лишних проблем (например, обсчитывать 4-10К сильно сложнее, чем 2К, то есть кому-то придётся обновить железо и платить больше за электричество). Причём кроме расходов на саму ретину есть ещё оверхэд на hidpi (например, смасштабировать картинки в браузере). То есть та же ретина в ноутбуке может стать и нежелательной, потому что съест больше батарейки…
UFO just landed and posted this here

Это если игры не запускать, даже старые. Какой-нибудь half life 2 на 4к может серьёзно нагружать неигровую систему.

Современная интеграшка слабейшего Ryzen конечно потянет видео h.265 2160p воспроизводить? А вот 7 лет назад у мобильного Celeron даже 1080p не тянула, пришлось найти плеер, работающий на дискретке.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here

Ой, а можно я тоже про профили немножко поною? Профиль High422 тоже реализуется примерно никем, из-за чего я не могу перекодировать оцифровки VHS-кассет без искажения цвета :(

UFO just landed and posted this here

А толку от софтовых кодеров-декодеров, если на большинстве не слишком "умных" телевизоров их всё равно нет и не предвидится, да и на том же андроиде ещё нужно додуматься предварительно установить из гугл-плея какой-нибудь плеер с софтовым декодером

UFO just landed and posted this here

А толку от архивов, если их просмотреть будет толком не на чем) Так-то если ограничиваться каким-нибудь VLC в каком-нибудь линуксе на каком-нибудь современном Core i5, то можно хоть в Lossless H.265 писать если места не жалко, а если хочется чтобы условные родственники просто воткнули флешку в телек и не парились, но при этом постараться максимально сохранить качество, то приходится различные связанные с кодированием дилеммы решать. Ну или кодировать дважды в два разных формата, если места совсем не жалко (а мне жалко)

Lossless H.265 писать если места не жалко

Я наоборот считал HEVC способом сжать в относительно низкий битрейт. Ну а интеграшка в «современном Core i5» наверное должна потянуть декодирование такого сжатого видео легко.

Как это ни удивительно, он весит даже немного больше чем Lossless H.264 (или это просто libx265 недостаточно оптимизирован?), ну и относительно lossy они оба здоровые (65 Мбит/с даже с пресетом veryslow ради какого-то жалкого VHS — спасибо, не надо). А мой ноутбучный Haswell в принципе не поддерживает аппаратный H.265 :(

Вы вполне можете использовать так называемый «visually lossless» с CRF в районе 10. Отличия в файлах, пожатых с CRF 20 и с CRF 10 нужно будет искать при многократном увеличении, и в идеале еще хорошо бы знать, где их искать.
Если Вы создадите фотку 2160p jpg с качеством 0.25 бит/пиксель, то наверное на FullHD мониторе не будет видно артефактов, если не подставлять глаза совсем близко.
UFO just landed and posted this here
Если совсем оффтоп, то 4:2:2 использует mJPG?
А в VHS было 320x240 и 120 линий цветоразности?
ЕМНИП, у меня было именно HEVC 10bit, FullHD — почему-то «Росомаху» (первого?) скачал в таком качестве при монике 768p.
UFO just landed and posted this here
Я предположу, что на 1080p мониторе может хорошо(то есть лучше, чем FullHD) выглядеть даже видео 2160p с 0.25 бит/пиксель.
А вопрос в том, как эти 10 бит потом отобразит монитор.
UFO just landed and posted this here
В лучшем случае сокращать битность будет MadVR, в худшем это произойдёт намного раньше.

Я экспериментировал с 10-битным цветом, когда писал собственный просмотрщик изображений. Идея была в использовании ordered dithering: что в блоках 2х2 пикселя к каждому пикселю добавлялось 0, 1, 2 и 3 соответственно, а затем цвет округлялся до 8 бит. На 4К мониторе градиенты выглядели идеально, неотличимо от истинных 10 бит.


Ну а выводить 10 бит на монитор умеет тот же MadVR, но только в полноэкранном режиме, и мой монитор при этом переключается, а делает он это до безобразного долго, около 5 секунд.

Так можно же задать 10 бит глобально для системы, и не будет тратиться время на переключение.
Другое дело, что под Windows все равно придётся переключаться в полноэкранный режим для просмотра 10-битного цвета — это программно-маркетинговое ограничение.
Под Linux такого ограничения нет, но графический интерфейс начинает работать ощутимо медленнее.

Только не забывайте, что большинство мониторов делают точно такой же дизеринг и есть риски вступить с ним в конфликт.

Да, мониторы имеют FRC, но он мерцает пикселями во времени и ортогонален пространственному дизерингу.
То есть эти два эффекта, по идее, дополняют друг друга.


P.S. К сожалению, у меня под рукой нет TN монитора с 6-битной матрицей, чтобы проверить этот эффект.

UFO just landed and posted this here
Я как-то сериал 720x400 из XviD в h.264 ХендБрейком конвертировал. Только потому, что плеер на планшете не понимал. Не то KMP, не то ещё какой-то.

P.S. Что-то в Хроме висит ввод комментов на Хабре.
«время отклика» для ЭЛТ равно межкадровому интервалу. То есть для частоты 60 кадров в секунду это будет 17 мс, для 85 — 12.
Но только для зажигания пикселя. Погасание может затянуться на несколько кадров из-за послесвечения люминофора

Впрочем, что это я — и на ЖК обновление пикселей происходит с частотой кадров, а время реакции матрицы добавляется к межкадровому интервалу как задержка.
UFO just landed and posted this here
Нет, там специально подбирается люминофор, который гаснет не сразу. Иначе просто всё мерцать начинает и это неприятно выглядит.
Во времена DOS у меня был монитор, на котором за текстовым курсором, если зажать пробел или стрелку, оставался шлейф из пары-тройки заметных «фантомов».
Учитывая, что частота повтора клавиатуры 30 раз в секунду, курсор сдвигается с периодом 0,0(3) с — получается, хвост шлейфа затухал через 0,1 с.
Теплый ламповый янтарный MDMA?
Монохромный EGA белого свечения.
Вот опыта с EGA не было у меня практически, сразу с MDA/CGA/HGA перешел на VGA 640x480. И большое послесвечение помню только на MDA. CGA/HGA это телевизионные трубки практически, и там послесвечение люминофора было примерно в одну строку, а не кадр. Иначе бы не потребовалось поднимать кадровую частоту до прогрессивных 60 Гц, впоследствии до «безопасных» 75, «незаметных даже краем глаза» 85 и «полностью неотличимых от листа бумаги» 100 Гц, (а ведь по началу был режим 56i — чересстрочная развертка, замечу, что в CGA была вообще телевизионная чересстрочная развертка 48i).

Еще надо понимать, что процесс послесвечения люминофора аналоговый, низкие уровни послесвечения сохраняются очень долго, в полной темноте можно наблюдать послесвечение люминофора только что выключенного телевизора и хвосты при желании можно заметить, если знать куда смотреть. На ЖК матрицах, кстати говоря, тоже можно заметить хвосты, но причина уж не в люминофоре.
Я тоже начинал с HGC и зеленого монитора. Не стал уж про него упоминать, там хвост за курсором вообще в полэкрана тянулся.

ЖК да, тоже имеют свою инерционность — ведь молекулам нужно время на изменение положения. Но оно, по идее, очень маленькое.
Моим первым монитором была абсолютно дешманская Электроника МС 6105, которая «колольчик», там, к слову, шлейфа послесвечения не было. Наверное, трубки по качеству всё-таки разные были даже в то время.
Я конечно из статей на Хабре знаю, что когда-то величины вроде 80x25 символов были разрешением для монитора. Но во что-то древнее первого «Prince» и «Dangerous Dave in the Haunted Mansion» не играл, так что видимо застал более продвинутые технологии.
Они как раз в одно время были. Prince даже поддерживал CGA поддерживал. 320x200 — и вовсе не символов…
Я на каком-то ЭЛТ играл, может даже 15". ЕМНИП, это уже был Win 95, а потом и 98.
Тут еще есть пара моментов. Достаточно недорогой для своего времени F700P даже новым показывал… так скажем не идеальную картинку. Если сравнивать например с Sony G4**/F4** серий например. Ну и через несколько лет они все уже показывали совсем печально. Серьезные девайсы — они в производстве дороги. Там дохренища деталей, специфичных микросхем, специфичной фигни вроде датчиков магнитного поля, куча ручного труда специалистов (конвеерные макаки не справятся) для сборки и регулировки. Но в итоге оно может показывать практически идеально в плане геометрии и сведения, и практически не терять ничего с годами. Но даже своё чудовище я уже несколько раз чинил. И люминофор не вечен, выгорает, и это заметно. Но всёравно он классный.

Насчет аппаратного предела разрешения — он там есть. Это у монохромных мониторов можно разрешение вытягивать до размеров зерна люминофора, у цветных не так. Конкретно у платформы Mitsubishi 2060u — потолок около 0.20мм по горизонтали, по вертикали можно выставить что угодно, но по факту точность сведения будет где-то около техже цифр. Так что ставить что-то выше 1600х1200 есть смысл только для скриншота чтобы побольше влезло и в печать, или использовать аппаратное масштабирование с софтом, который не умеет что-то подобное сделать также красиво программно.
К большому монитору очень быстро привыкаешь.
Когда пересел с 19" на 28", то казалось, что слишком огромный.
Сейчас — посматриваю в сторону 32".
А какое у вас расстояние до монитора? А то, боюсь, вместе с монитором придется и стол покупать и квартиру )
Можно повесить на стену или настольный кронштейн.
К сожалению, даже с 24" глубины стола не хватает с учетом кронштейна. Приходится использовать кресло с подлокотниками.
Около 70 сантиметров — у меня масштабирование 100%, я хотел больше рабочего пространства :)
UFO just landed and posted this here
У меня коллега так же сидит, и я не устаю поражаться. У меня до 22" больше вытянутой руки (где-то ещё на ладонь) и то иногда хочется подальше.
UFO just landed and posted this here
И правильно! У меня 32" 2560 × 1440 и очень доволен. Пробовал 43" 4К — за 3 месяца не смог привыкнуть и купил эту 32-ку. Стол самодельный, шириной 80 см. Счас померял — от плоскости монитора до края стола 62 см.
У меня 4К 43 дюйма. Сижу почти вплотную, проблему слишком широкого угла обзора решил размещением вспомогательных окон по периферии.
32" это хорошо. Только не сверхширокий, а 16:9, на котором и работать приятно, и три листа A4 рядом становятся + запас сбоку и снизу, и фильм можно посмотреть. Эффект «он слишком большой» проходит через пару часов работы, после перенастройки Windows и шрифтов в приложениях. Я вначале года брал такой.
А какое у вас масштабирование и размер шрифта установлены?
Стоит 175%. Но я близорукий, у вас может быть другой подходящий масштаб. Ещё плюс монитора для работы — подавление синего цвета, немерцающая матрица, «картинка-в-картинке». Для фильмов можно временно включить HDR, а для игр — FreeSync.

Самый яркий момент при переходе на монитор 4K — это абсолютно чёткие тонкие линии в буквах. Как на бумаге.
UFO just landed and posted this here
У меня под Windows 10 завёлся только на 60 Гц. Не знаю в чём там дело: то ли в шнуре, то ли в видеокарте, или в самом мониторе. Но мерцания не вижу, в динамические игры особо не играю, поэтому глубже пока не копал.
UFO just landed and posted this here

Боюсь до частоты кадров 120 ГГц далеко не 5 лет.

UFO just landed and posted this here
Не очень понимаю каким образом можно нормально посмотреть фильм на мониторе, который «только не сверхширокий, а 16:9»? Не, если нравятся полоски сверху и снизу, тогда пожалуйста, компромисс имеет право на существование.
Эффект «он слишком большой» действительно проходит и вот сейчас мне хочется заменить свой 34" на что-нибудь типа 40+. Но это почти невозможно сделать, моделей мало и они дорогие.
А если фильм старый, 4:3, то можно вообще одновременно два фильма на одном мониторе в полный экран смотреть!
UFO just landed and posted this here

Да и все современные сериалы в 16:9 идут. Формат 21:9 используется только для большого кино для кинотеатров.

Ну да, кроме китайских порномультиков ничего же не существует в кинематографе )
Я как раз имел в виду фильмы в формате 2.4:1, т.е. практически вообще все фильмы за последние 20 лет. У меня нет телевизора, поэтому все фильмы смотрю на мониторе.
Мне казалось, что телевизоры как раз 16:9, не?
Телевизоры 16:9 (1.78:1), а все фильмы 21:9 (примерно 2.4:1). Многие сериалы 16:9, но сейчас всё больше переходят на примерно 2:1 (18:9). Такие дела.
На DVD фильмы выпускались или в формате 16:9 с полями сверху и снизу. Или в формате 16:9 с обрезкой краёв. Чаще всего кадр делали тупо по центру, но иногда встречались варианты интеллектуального кадрирования, когда в разных сценах кадр двигали влево или вправо. Как это выпускают на блюрее я не знаю.
>> Не очень понимаю каким образом можно нормально посмотреть фильм на мониторе, который «только не сверхширокий, а 16:9»? Не, если нравятся полоски сверху и снизу, тогда пожалуйста, компромисс имеет право на существование.

Я не то что киноман, но много смотрю кино и сериалов на компьютере. Почти все отлично походят под соотношение 16:9. Редко-редко встречаются другие соотношения. Ну и на большом мониторе даже полоски сверху не особо мешают.
UFO just landed and posted this here
Кстати, сериалы постепенно переходят на формат 2:1. Проблема в том, что эти замечательные люди зачем-то выпускают это в формате леттребокса, т.е. кадр 16:9 со встроенными чёрными полями. В итоге их 720p это не честные 720p, а примерно 560.
Я тоже не понимал что такое фильмы формата 2.4:1 (а это вообще-то абсолютно все фильмы) пока не купил монитор 21:9. Оказалось что это очень круто когда фильм идёт на весь экран.
Но только не подумайте что это у меня религия такая. Просто мне дома так удобнее. По центру стоит большой 34" монитор, а сбоку есть ещё 24", на котором я запускаю сериалы и всякие прочие стримы когда работаю на основном.
>> Я тоже не понимал что такое фильмы формата 2.4:1 (а это вообще-то абсолютно все фильмы) пока не купил монитор 21:9. Оказалось что это очень круто когда фильм идёт на весь экран.

Я не то, что не понимаю, такого нет. Просто 40" монитора позволяют даже с полосками иметь достаточно большую картинку. Но 720р (даже честные) на нем смотрятся отвратительно.
А наверное 40" 16:9 по ширине как раз соответствуют 34" 21:9. Просто ещё есть немного пикселей сверху и снизу.
Я давно хочу 40", но почему-то про 16:9 не думал, как-то упёрся в 21:9 и не рассматривал варианты. Может быть как раз есть смысл взять то же самое по ширине, но больше по высоте. Но тут уже, наверное, без 4К не обойтись. Значит начнутся все эти заморочки с «видеокарта не тянет X-Plane» и всё такое.
А наверное 40" 16:9 по ширине как раз соответствуют 34" 21:9
Хм, посчитал. Результат для меня несколько неожиданный:
34" 21:9 должен иметь ширину 793,8 мм
40" 16:9 — 885,5 мм

Другое дело, что я в магазине посмотрел как-то на телевизор 40" 4к с расстояния вытянутой руки, как я обычно смотрю на монитор — мне не понравилось. С пикселами — всё ок, но углы обзора, под которыми смотришь на углы картинки, такие, что кажется что смотришь на выпуклый шар.

Для меня, похоже, максимальный комфортный размер плоского монитора — 27"
Я сейчас просто померял. Дисплей примерно 798мм, если без рамок. 40" нашёл в интернетах, пишут 885мм.
Так что мне даже такой вариант даст увеличение по ширине. Жаль моделей особо нет (если не рассматривать 150К).
24" и больше — классные, но сайта например на 150% масштабировании смотрю и мониторов хочется штук 6-8 30+
32+27 — полет нормальный :) Но стол потребовалось поменять. Да
Жаль, что производителям мониторов эти все аргументы совершенно побоку.

Я вам более того скажу, вашим глазам эти аргументы тоже абсолютно побоку, на самом деле. По крайней мере, если речь идет о переходе со «стандартных» 92 dpi на более высокую плотность.

Я, например, прекрасно вижу разницу между 95 dpi и 180 dpi. Может глазам и побоку, но мне неприятно смотреть на пикселизированный текст.

Ну так есть же большая разница между физиологическим влиянием и эстетическим. Первое — явный повод предпринимать какие-то действия и что-то менять. Второе — сугубо вкусовщина. В статье давят как раз на первое, хотя этого на самом деле нет, разница между обычной плотностью пикселей и повышенной чисто эстетическая, и кому-то играет роль, кому-то нет.
В статье давят как раз на первое

а где именно в статье на это давят? Дайте цитату, пожалуйста, может я проглядел.

Мельком проглядел текст второй раз — прямой цитаты не будет, но я согласен что именно такое ощущение этот энтузиазм автора оставляет:
Я программист. Я не занимаюсь цифровой живописью, обработкой фотографий, видеомонтажом. Меня действительно не волнует широкая гамма или даже правильная цветопередача. Я провожу большую часть своих дней в текстовом браузере, текстовом редакторе и текстовом терминале, глядя на едва движущиеся буквы.

Поэтому я оптимизирую настройки, чтобы показывать действительно, действительно хорошие буквы. Для этого необходим хороший монитор. Не просто нужен, а ОБЯЗАТЕЛЕН.
И в заключении:
Текст не может выглядеть хорошо на дисплеях с низким разрешением.
Хорошо-нехорошо — это на самом деле субъективное «приемлемо». Мне вот сейчас на ноутбучном 96 DPI — читать текст нормально. На домашнем 1080p 24" мониторе я сижу так далеко, что иногда текст увеличиваю, опять же «приемлемо».
Год или два назад кто-то в комментариях на Хабре рассказывал, что вообще всё сглаживание отключал + надстройки, чтобы получить pixel-perfect шрифт как на Windows XP ЕМНИП (или была цель несглаженный шрифт?). Его скриншоты смотрятся именно что — по-другому. Хуже или нет — дело вкуса.

Никто не будет спорить, что при 4К (читай: выше DPI) текст будет выглядеть лучше. Но у автора — это вообще святой Грааль, а вы чукчи и, конечно, 4К 120Гц чуточку дороговат (2000$ — это у него сарказм такой или истинное непонимание?), но того стоит (тм)

У меня не возникло ощущения, что автор пишет о физиологии. Скорее об эстетике и комфорте. На самом деле я автора поддерживаю — каждый должен иметь возможность попробовать поработать за retina-like монитором чтобы выяснить для себя, что лучше. Подозреваю, что многие юзера сейчас пользуются старыми мониторами так как даже не знают, что на рынке существуют экраны, способные предоставить намного лучший опыт. И автор высказывает мысли в таком ключе, чтобы поднять этот вопрос, расшевелить рынок, так сказать.

UFO just landed and posted this here
Другой вопрос, что если сделать экраны физически малоотличимыми от реального объекта, который они изображают — то это будет и эстетично и физиологично (по-крайней мере, нельзя будет сказать, что смотреть на экран вреднее, чем смотреть на реальный мир, который экран отображает).

А что является реальным объектом, если на экране буквы?
Эстетично или нет — это дело вкуса. Как выбор шрифтов. По физиологии — нужно сначала доказать, что пиксельный текст вреднее (или не вреднее) гладкого. Это если экран фонит рентгеном, или мерцание вызывает эпилепсию боль в глазах, то сразу более-менее ясно, что для здоровья такой экран не очень.

Возможно, реальным объектом являются печатные книги в таком случае. Другой вопрос, что они тоже очень разные по качеству могут быть, причём может не быть единогласного мнения насчёт того идеально то или иное издание или нет.

с физиологией и психологией вообще вопрос тонкий — привычка, иногда все новое просто в штыки, но как только проясняются очевидные плюсы, сразу используют. А иногда попробовав, удивленно восклицают — «А что, так можно было?». Но это не везде работает, возьмите те же инстаграмм фильтры в стиле ретро или там с дефектами пленки — нет ведь зачем то «портят» фото этими фильтрами, нравится — потому что с ними фото выглядят «лампово».
Ну не знаю. Я сейчас сижу за 32"\2К — те же 92PPI, Попробовал 4К — не понял смысла. Ставить масштабирование — ловить блох по всем подсистемам, или постоянно переключаться. Без него — мелко, да и место жалко. Мне важнее больше размещенных объектов на экране, чем эстетическое наслаждение от чёткости букв
Ставить масштабирование — ловить блох по всем подсистемам, или постоянно переключаться.
А что за ОС, какой версии?
Я вроде как на ноуте FullHD поставил только 125% на ярлыки рабочего стола.
Ставить масштабирование — ловить блох по всем подсистемам, или постоянно переключаться.
Мы тут (и выше) как раз обсуждали баги масштабирования, и вроде как пришли к выводу, что если у вас 10-ка и мониторы подключены постоянно, то проблемы будут только уж в очень древнем софте, времен висты-xp.
Но если вы приведете примеры программ, где масштабирование не лечится параметрами совместимости, то можно будет развить тему еще.
UFO just landed and posted this here

Если мылится текст — да. Если иконки/картинки — нет. Вот пример старого приложения, к которому сам виндовс применяет масштабирование: https://prnt.sc/tfb8wg
Пользоваться можно, но выглядит не очень. В более новых приложениях такой проблемы нет (как пример: https://prnt.sc/tfbe0w )

UFO just landed and posted this here

Ради интереса поставил только что этот Workbench (https://prnt.sc/tfcfda) — таки да, это пример одной из немногих современной, но не адаптированной программы. Позор Ораклу. Но, в принципе, оно выглядит несколько лучше, чем то приложение, которое я приводил выше, пользоваться можно.

UFO just landed and posted this here
UFO just landed and posted this here
Забавная эта штука HiDPI. В каждом отделе тестирования любого софта должен быть тестировщик на 150% масштаба.
Да, соглашусь.
Впрочем, все эти примеры терпимы в принципе.
UFO just landed and posted this here
125% ещё больше артефактов выдаёт. особенно если приложение пытается окно кастомизировать
Телеграм + два монитора с разным DPI. Ну и много какого софта не переносит перенос между такими мониторами. Аутлук, например, глючит интересно. частично масштабируется, частично нет, особенно с окном нового письма.

То есть под монитор и ОС выбирать, и от мобильности (даже вида системник вожу с работы домой и обртано) отказываться? :)

Вопрос выбора ОС для многих не стоит, ну и за Linux я не могу говорить, потому что сам пользуюсь только терминалом без иксов.
От мобильности отказываться тоже не нужно, нужно просто не подключать\отключать физически мониторы во время работы, либо перезагружаться после этого.
Год или два назад кто-то в комментариях на Хабре рассказывал, что вообще всё сглаживание отключал + надстройки
Это, небось, я:)
habr.com/ru/post/463799/#comment_20514385
fastpic.ru/fullview/106/2019/0816/99b291d35da095fb19d8aaf3e43f93df.png.html
Всё ещё жду нормального монитора 23" 4K. А пока что отрубаю всё сглаживание, так что всё выглядит a-ля Win98.
Дл крупных шрифтов сглаживание — это прекрасно. Но для мелких, когда количество сглаженных пикселей больше половины от всех пикселей шрифта, то как будто надел очки на здоровые глаза.
UFO just landed and posted this here
В точку, привет :) Но хождение по мукам viklequick запомнилось больше.
А вот и нижеследующий пример, как Chrome превращает шрифты в мыло. Где-то слышал, что это проблема из-за (кривой) конфигурации Skia. В итоге на Electron-based программы смотреть невозможно (а ≤13pt просто невыносимо). Это как раз те мелкие шрифты, которые сама ОС (Win7) рендерит на ура, в отличие от.
UFO just landed and posted this here
Подозреваю, что дело в видеокарте и её драйверах. У меня UHD 630, Chrome рендерит, как и Firefox — всё чётко. И на Win7, и на LTSB 2016, и на LTSC 2019.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
Зато эти лесенки из чётких черных пикселей.
А в вашем тексте практически нету ни одного несглаженного пикселя. Вот сравнение вашего текста и моего Tahoma 12:
fastpic.ru/fullview/112/2020/0703/ca7a67e2c8107a213b54a4f3f7bb718e.png.html
Разрешение человеческого глаза: 1-2 минуты. Этого достаточно, чтобы видеть смазанность шрифтов на 23" FullHD на расстоянии 60см.
UFO just landed and posted this here
UFO just landed and posted this here
Извините, но это уже напоминает анекдот «а вы на шкаф залезьте!» :)
Протестировал и беру свои слова обратно, с оговоркой: когда я впервые увидел Chrome лет 9 назад (время...), то шрифты были действительно ужасны на реальной системе. После этого запускал только в виртуалках, поэтому не буду больше на это опираться.

Что ж, если в кратце: дело-таки в шрифтах!

Я сравнил Firefox и Electron (Discord app) друг с другом. При одинаковых настройках различий нет. Аппаратное ускорение: да, что-то изменяет (видно, если наложить слои XOR'ом), но незаметно для глаза.
Результатом оказалось, что «старый-добрый» Segoe UI лучше всего ложится на пиксельную сетку при 96 DPI, оттого и кажется чётче. Дело в новых шрифтах, что используют Steam+Discord (других вакханалий Electron на ПК пока не держу). Потому, когда Steam перешел от native чат клиента на Electron и казался текст мылом.

Скриншоты, 96 DPI:
100%, оригинал [160 КБ] (да, размер в настройках блокнота правильный)
400% увеличение через nearest neighbour [286 КБ] (чтобы не использовать неконтролируемое увеличение браузера со сглаживанием)

Тут для меня явный фаворит — это Segoe UI. Мне уже непонять, либо это сугубо личное (знакомый шрифт + пригляделся за года), либо он в самом деле рендерится с меньшим количеством сглаживания.

PS: Скриншоты сводил в Paint.NET 3.5, но он вроде субпиксельно не сдвигает картинки, поэтому ошибок быть не должно.
Забыл упомянуть, но увидел я это после тестов:
Font rendering
gfx.canvas.azure.backends > direct2d1.1,cairo,skia (old font rendering)
gfx.content.azure.backends > direct2d1.1,cairo,skia (old font rendering)

Отсюда. Firefox поддерживает несколько бекэндов для отрисовки шрифтов. Вот и всё — откуда могут быть (или не быть) различия.
Проблема и в шрифтах и в их сглаживании, причем не только в Хроме, но сейчас даже из ФФ убрали возможность отключить эту порнографию.
UFO just landed and posted this here
Anti-Aliasing Tuner умер с переходом на Quantum, а ещё создатели Хабра сделали больно читателям без HiDPI-мониторов пару месяцев назад:
Ответ поддержки:
Мы перешли на так называемый Native font stack, то есть на использование шрифтов, встроенных в операционную систему и используемых в ней в качестве шрифтов «по умолчанию». Такой подход позволяет лучше согласовать оформление сайта с дизайном операционной системы и, кроме того, немного ускоряет загрузку, поскольку страница не подгружает отдельный файл со шрифтом. Соответственно, для замены шрифта вы можете изменить основной шрифт вашей системы или использовать расширения для браузеров, позволяющие применять собственные css-стили к странице.
Не очень понял, а в чём тут боль?
Глаза болят от новых шрифтов на 1080p.
Так они же, судя по ответу, не новые, а как раз системные? У вас и от системного UI тогда должны болеть.
шрифтов, встроенных в операционную систему и используемых в ней в качестве шрифтов «по умолчанию»

Только вот в моём Arch Linux стал использоваться Segoe UI, который ну вообще категорически не является нативным

Да, не очень похоже на «использовать системные»:
.comment__message, .comment-form__preview {
  ...
  font-family: "-apple-system",BlinkMacSystemFont,"Segoe UI",Arial,sans-serif;
}
А откуда он там взялся?

Я установил) Только вот сам факт его установки совершенно не делает его системным/нативным

Это путаница в терминах. Для людей «старой школы» системный — это тот, что выбран в системе по умолчанию. Это настолько выходит рамки воображения типичного Web-разработчика, что об этом варианте они даже не думают никогда. Для них «системный» — это то, что стоит на компьютере пользователя и выбирается из списка, указанного в CSS
UFO just landed and posted this here
ну так я так и пишу — 2000 долларов дороговато, поэтому их не берите, берите за 750
UFO just landed and posted this here
А я наоборот, всегда нормально воспринимал видимость пикселей. Зато люто ненавижу любые средства сглаживания и вырубаю всеми силами.
Моим глазам не побоку, когда я вижу шрифты либо лесенкой (при выключенном Clear Type) либо мутные (при включенном).
Было 24, после 2 х 24, после 27, потом 2 х 27, сейчас 34. На данный момент могу сказать только одно: 24 — ОЧЕНЬ мало, 34 — много и не удобно. А вот 2 х 27 — идеально. Для меня, т.ч. сорри, если что.

а я сейчас сидя за 2х27 думаю, надо ли мне 2x31-32

Сначала использовал 2х24 FullHD, потом 4х24 FullHD вертикально, сейчас перешёл на 1х40 4K. Плотность пикселей не поменялось, пользуюсь примерно как 4х24, только без дурацких рамок.
И то второй без регулировки высоты.

Просто купите кронштейн. Можно сразу на два монитора (если вы используете несколько). Один раз вложили деньги — и со следующими мониторами можно не заморачиваться вообще. Бонусом — появляется место на столе, настройки осей будут всегда именно те, что нужны вам. Высота, наклон, поворот, вынос — всё, как вы захотите.
ссылочкой не поделитесь?

Мне очень понравились качеством изделия Arm Media: https://market.yandex.ru/catalog--kronshteiny-i-stoiki/56146/list?glfilter=7893318%3A10713369&onstock=1
Использовал несколько лет кронштейны на стену, сейчас подвесил на стол 2 монитора с помощью Arm Media LCD-T42 — поразительно устойчивая конструкция получилась.

Не все мониторы имеют VESA. А в последнее время так совсем много уж не все. Сам склоняюсь к свободному месту вместо подставок мониторов. Мне кажется 2х27 это самое оно. 2х32 уже слишком много места занимают.
UFO just landed and posted this here
Не все мониторы имеют VESA.

Это не проблема, продаются переходники на VESA. Я себе на кухню купил моник Dell 27" вместо телика, он без VESA. Купил сначала переходник, но он оказался очень громоздким и мешал открываться шкафу. В итоге сделал ему переходник на 3D принтере, быстросъемный с креплением типа ласточкин хвост.
Пользуюсь уникальным по своим параметрам монитором LG UltraFine™ 4K, но не новым 24", а старым на 21.5". Он работает по USB-C, а не Thunderbolt, имеет нативное разрешение 4096 x 2304 (218 ppi) и кучу других особенностей, вроде яркости в 500 нит. Есть и недостатки, конечно, например, маленькие и хрипящие динамики. Плюс никакие переходники вас не спасут, если у вас нет на видеокарте USB-C разъема. Я специально выбирал себе модель 2060 FE, чтобы там был порт VirtlualLink. На Маке и Intel NUC работает из коробки. Еще есть кое-какие танцы с бубном и платой за $64, чтобы заработало с любой видеокартой, но это того не стоит.
В целом, пользуюсь второй год и доволен как слон — яркий и четкий монитор, занимает немного места на столе. Жалко, что следующая версия на 24" оказалась менее удачной — меньше разрешение при таком же размере, меньше яркость, негативные отзывы про качество, поддержка только Thunderbolt 3.
аналогично, пользуюсь парой таких в офисе и дома 1 шт. из косяков бы я еще хотел отметить жуткое качество самого корпуса и подставки — такое ощущение, что это какой-то дешманский монитор за 100 баксов. Но матрица превосходна.
Еще косяк — если используешь пару таких мониторов, то надо подключать каждый своим кабелем к макбуку. Док станции с 2 usb-c видеопортами я не нашел.
еще засада, что там usb-c порты со скорость usb 2.0 всего
Док станции с 2 usb-c видеопортами я не нашел.

А мак в такое и не умеет. Подключал к dell latitude и xps в один type-c порт док на два монитора — все нормально. Тот же самый док с макбуком — изображение на мониторах дублируется, и все. Хотя в последний мак про не пробовал ещё.
это проблема не с маком, а именно с доками.
в данный момент у меня belkin thunderbolt 3 dock — он спокойно переваривает 2 4к монитора (asus mg24uq в dp и ullrafine 4k в usb-c)
UFO just landed and posted this here

VirtualLink — это просто стандартизированное объединение DisplayPort + USB3.1 в один кабель.

Я, как разработчик, столкнулся с тем, что нет 4K в варианте 16:10. Оно уже настолько привычно для разработки, что возврат от 1920х1200 к 1920х1080 — настоящая мука.
Да, матрица 27" 16:9 по высоте почти соответствует 24", но зато она настолько широка, что полностью ломает привычный процесс работы и шаблоны движения мыши по экрану.
Мне не нужен экран 27". У меня 3 монитора по 24", и они отличаются от просто широкого экрана тем, что на каждом мониторе свой отдельный контекст. Я никогда не смотрю на два монитора одновременно. Нужна информация со второго монитора — повернулся к нему. А широкий 27" экран заставляет меня постоянно вертеть головой при работе с одним контекстом.
Рынок правит миром.
Вот и я про что, я вообще не разработчик и вертеть головой мне не нравится. 24 — это максимум, который меня устраивает, 27 уже перебор.
Также много лет использовал 3 монитора 16:10 24" в горизонтальных и портретном режиме. Тоже придерживался подобной аргументаций и пару лет назад отказался от 27" по тем же «забольшой» и «вертеть головой».
Но вот недавно решился на радикальные 43" 3840×2160 в качестве основного монитора. Основной проблемой-ограничением оказалось рабочее место — нужен банально широкий и достаточно большой в глубину (чтобы отодвинуть монитор дальше привычного, увеличив масштаб).
Про «вертеть головой» забылось на следующий день. Сейчас лишь жалею, что не взял изогнутый — теперь понимаю, что это такие же предрассудки, которые развеваются через пару дней реального использования, когда представить возвращение к предыдущему «мелкоскопу» нереально.
Скромный вывод и совет от похожего по тону консерватора — попробуйте, не знаю как, но попробуйте пару дней поработать. Всё не так, как кажется.
Есть больше 10 лет — 3840*2400. Плюс на 27 и больше субъективно уже не так это критично.

Не думали о том, чтобы широкоформатные мониторы ориентировать не в альбомную (стандартную), а портретную ориентацию (ну, как мы А4 листом пользуемся в быту). И тогда по горизонтали проблем не будет, а т.к. ширина кода всегда стандартная (сколько там обычно — 80 символов?), то по вертикали будет влезать больше информации

зашел чтобы это написать. 16:10 значительно удобнее для разработчика, поле для кода становится больше.
По этой причине подумываю на счет нового dell xps 15, наконец то ноут с таким соотношением
Монторов с 4k и диагональю 24" (27 мне уже многовато) на яндекс-маркете ровно два

Просто поставьте свой монитор дальше, и получите улучшенный аналог 24".


Единственное, когда нужно 24" — когда слишком маленький рабочий стол. В остальных случаях это слишком мало, т. к. требует ставить монитор слишком близко к глазам.


Менее 27" — слишком маленькая диагональ.


Также менее 27" может быть актуально при нескольких мониторах, т. к. при нескольких нужен ещё более большой компьютерный стол — не у всех такой есть.

Дальше, там стена уже )

Купите нормальный рабочий стол — это не так дорого. Тогда сможете хоть 40" поставить, но дальше от глаз — размер картинки будет такой же, но глазам будет намного полезнее, т. к. не придётся напрягаться для фокусировки на близкое расстояние.


Дополнительно это решит проблему изменения размера картинки при изменении позы.

Я пока остановился на мониторе 24 дюйма. Дальше мне глазам уже некомфортно мелочевку выцеливать. А выше как раз аргументы, один в один мои: habr.com/ru/post/508824/#comment_21794692

Я к тому, что чем монитор больше, тем всегда лучше для глаз и для пользователя. Главное, чтобы рабочий стол позволял вместить его.


Исключение составляют пользователи, у которых уже развилась близорукость, и которые теперь не в состоянии сфокусироваться на мониторе, который расположен слишком далеко от глаз. Но чтобы она не развилась, как раз и нужен большой монитор. Если же уже развилась, то не знаю, может плавно отодвигать монитор или сходить к врачу.

Какая разница какой физический размер монитора? Главное его угловой размер, не слишком большой, чтобы головой не крутить и не слишком маленький, чтобы видеть достаточное количество информации. Грубо говоря между 27" на 70 см или 24" на 60 см (цифры от балды, точно считать лень) разницы н едолжно быть заметно при прочих равных.

Какая разница какой физический размер монитора?
На самом деле разница есть, хотя и вторичная. 24" в 60см и 55" в 120см (цифры от балды тоже), отличаются тем, что во втором случае можно спокойнее двигать головой, глазу нужно не так сильно изменять фокусировку при движении от края к центру и обратно, изменение освещенности не так заметно и т.д.
Поэтому при прочих равных — чем больше тем лучше.

С фокусировкой и освещенностью согласен, с головой, видимо, не уловил.


Но есть ещё один критерий: прочие равные буду только если место не ограничено, ни, грубо говоря, столом, ни, руками.

С фокусировкой и освещенностью согласен, с головой, видимо, не уловил.
Сидишь обычно не неподвижно. Сядешь так, сядешь сяк, голову направо подвинешь, налево. Если монитор небольшой и недалеко, то любое неосторожное движение и вылетаешь из удобного центра, если большой и далеко — то чувствуешь себя свободно.

Но есть ещё один критерий: прочие равные буду только если место не ограничено, ни, грубо говоря, столом, ни, руками.
Мы со своей фрилансерской колокольни:) Телек 65" стоит столько же сколько моник 42", но при этом поставить его можно на таком расстоянии, что даже не придется особо думать где сесть что бы все было видно.
любое неосторожное движение и вылетаешь из удобного центра, если большой и далеко — то чувствуешь себя свободно.

Ну да, об этом как-то не подумал. Ниже тоже указали.

  1. Чем дальше монитор, тем лучше для глаз (меньше напряжение глаз, т. к. чем ближе объект, тем больше усилий требуется для фокусировки; особенно это актуально при длительных нагрузках).
  2. Чем дальше монитор, тем меньше изменяется угловой размер при изменении позы. Пример:
    • Маленький монитор:
      • Расположен на расстоянии 50 см. Расстояние до дальней точки (например, в левом верхнем углу) — 58.4 см.
      • После изменения позы мы отодвинулись на 20 см дальше, стало 70 см. Расстояние до дальней точки — 76.2 см. Расстояние после изменения позы увеличится в 1.30 раза, а масштаб текста станет меньше в 1.30 раза. Из-за этого может выйти ситуация, что когда мы придвинуты, текст слишком крупный, а когда отодвинуты — слишком мелкий.
    • Большой монитор (диагональ в 2 раза больше):
      • Расположен на расстоянии 120 см. Расстояние до дальней точки (например, в левом верхнем углу) — 134.4 см.
      • После изменения позы мы отодвинулись на 20 см дальше, стало 140 см. Расстояние до дальней точки — 152.5 см. Расстояние после изменения позы увеличится 1.13 раза, а значит масштаб текста уменьшится в 1.13 раза, а не в 1.30 раза как раньше. Это значит, что размер текста будет примерно одинаковым во всех позах.
      • Пояснение: тут можно заметить, что большой монитор мы расположили на расстоянии 120 см, а не 100 см. Так произошло, потому что расстояние было подобрано так, чтобы размер текста остался таким же в дальней позе. Дальная поза была 70 см, увеличили диагональ монитора в 2 раза — стало 140 см.
Но чтобы она не развилась, как раз и нужен большой монитор.

В большинстве случаев, близорукость — это изменение формы глаза, оно не зависит от близости экрана.

Цитирую с Wiki:


Также близорукость может быть вызвана спазмом цилиарной мышцы

К сопутствующим факторам появления близорукости относятся ранние и интенсивные зрительные нагрузки на близком расстоянии
Спазм аккомодации обратим. Близорукость — неа.

В таком ключе близорукость — это симптом, а корневая причина либо


это изменение формы глаза, оно не зависит от близости экрана.

либо


может быть вызвана спазмом цилиарной мышцы

И я уверен, что постоянный спазм — это не очень полезно. И может приводить к продолжительным негативным последствиям

года 2 назад купил на местной барахолке asus mg24uq всего за 200 евро. Сделан на матрице самсунг, есть еще пачка от других производителей. У меня на столе не прижился, всё-таки разница с lg Ultrafine 4k есть, а вот жене зашло. Она использует со старой mbp. fullHD@2x
Думаю, что один из этих двух — LG24UD58-B. Купил себе как раз его, и в дополнение переходник DELL 470-ACFC DisplayPort over Type-C и сразу подставку Onkron D101FS. Итого за 25к имеем 4к 24" монитор с регулируемой подставкой и выходом тайп-с.
Можно купить за 2-4к₽ кронштейн на струбцине. Будет и регулировка по высоте, и места на столе монитор будет занимать меньше.
Четыре :) Но с нормальным ценником — три. Рекомендую DELL P2415Q, не смотря на то что сам я с него уехал на 27''
Ну Eizo из-за дикой цены вобще не рассматриваю, LG 24MD4KL какой-то исключительно для Apple, нормальных входов-то нет, ни DisplayPort, ни HDMI. Остаются два, LG 24UD58 без регулировки высоты и DELL P2415Q, единственный кандидат, его и планирую купить, если ничего не помешает.
27 многовато, это как? на стол не влезает?
Бывает и такое. Справа на столе подставка под принтер скажем.

Вот я купил 27" месяца полтора назад, всё измерил — идеально влазило. А теперь переезжать надо и уже непонятно, чуть ли не квартиру выбираю, чтоб было место куда монитор поставить. 27" — уже любой стол не пойдёт.

Всю жизнь читаешь книги, у которых графика заметно хуже обычного монитора.
Автор что-то хорошо покурил.
У книг как раз графика всё-таки лучше, по теме шрифтов.
А вот пиксели часто крупнее. И читаются ничуть не лучше чем с обычного монитора.
Вот как на зло, под рукой только одна книга и она в порядке.
Хотя, может уже память обманывает. Но я точно помню очень крупные «точки» из которых рисовался текст.
Может, это был какой-то самиздат, печатаемый на матричных принтерах?
Я сейчас хотел сфотографировать кусочек из «Намедни», чтобы показать реальные границы неровности букв, но у меня банально не оказалось чем сделать макроснимок достаточного увеличения: недостатки камеры уже видно, а букв — ещё нет.
Кусочек абзаца с рулеткой для масштаба, снято телефоном с лупой
Некоторые сканеры очень хорошо апскейлят изображение, можно использовать как почти микроскоп
UFO just landed and posted this here
Что интересно, предыдущая страница выглядит более-менее

А разница в бумаге не ощущается? Выглядит как будто первая страница на более рыхлой бумаге.

UFO just landed and posted this here
Точек, если честно, не вижу. Вижу, что чернила по бумаге расползаются, т.е., дело в бумаге, а не в разрешении печати.
Exercise
Обратите внимание, даже у засечек на букве «Е» чётко видна форма
Для сравнения, вот обложка книги 1550 года, тут-то точно нет точек:
Alphabetum Græcum
image

UFO just landed and posted this here
Ну это уже технический вопрос. Глаза у меня напрягаются и болят независимо от того, точки там или расползлось что-то.
Я отвечал на утверждение, что в печатном тексте мало точек/низкое разрешение.
Зато C и I слилось (это что, лигатура?).
Нет, лигатура — это когда буквы объединяются вместе в новый символ, отличающийся от просто написания двух букв с перекрытием.
Иллюстрация
UFO just landed and posted this here
выглядит очень размыто

Называется растискивание, потому что краска жидкая, а валик, с которого она переносится, немного вибрирует. Ну и потому что от бумаги очень сильно зависит: у вас в примере дешёвая тонкая матовая (uncoated), у неё растискивание сильнее. Зато контуры получаются плавные (размытые), именно это позволяет печатать фотографии на тонкой газетной бумаге в разрешении 180 dpi без особой потери качества (визуально). В примере из «Намедни» бумага дороже, плотнее и глянцевая (coated), там растискивание меньше.
Не знаю кто такой Dover, но если текст просвечивается с обратной стороны — то такими книгами только печь топить.
UFO just landed and posted this here
текст просвечивается с обратной стороны

— популярное издание Конан Дойля из 8 томов было напечатано на очень тонкой плотной бумаге высокой печатью, и текст немного просвечивал с обратной стороны. Но этот совсем не то же, что некачественная оффсетная печать.
Когда-то работал в типографии. Там была машина фотовывода пленок, с которых делаются печатные формы для офсетных машин. Разрешение порядка 5000 (да, пять тысяч) dpi.
Я в терминологии не понимаю =)
На бумажке выходила итоговая картинка в 5к dpi? Потому что за исключением хороших дорогих книг, часто попадаются напечатанные на почти «туалетной» бумаге, шрифт паршивый и глаза устают. Да, сейчас то я умный, а тогда умудрялся покупать и такое.
Монохромная печать была в очень высоком качестве. Особенно на хороших мелованных финских бумагах. Но бумага, все равно, штука волокнистая, под микроскопом видно расползание краски по волокнам. А цветная печать была, конечно, похуже. Порядка 200 lpi (да, не dpi), но это из-за технологии смешения цвета для глаза, чем-то схожей с мониторами, но все равно другой.

Это из серии "Слышал я ваших Битлов… Рабинович по телефону напел".
Пока что ни DPI ни контрастность нормальной (даже не высококлассной) бумажной печати для дисплеев недостижимо даже в ближайшем будущем.

Работал в полиграфии верстальщиком. Макеты в типографию отправлялись в «фотографических» 300dpi. И это в основном для растровых изображений. Потому что шрифты все равно интегрировались как шрифты (pdf).

А если отправить им картинку с в 4 раза большим количеством пикселей, то не приняли бы?

Зависит от типографии, но последние 15 лет все работают с PDF/X-1a, там дистиллер сам пережмёт фотографии до 600 dpi (чёрно-белые до 300 dpi) и обрежет то, что выходит за границы bounding box. Если вы пересылаете исходники, то просто вставят «как есть», скорее всего, никто не будет руками downscaling делать. Ну или скрипт сам вашу картинку уменьшит, сконвертирует в CMYK и ещё какие-нибудь фильтры наложит.
Нет, чтобы что-то печатать, печать идёт всегда точками. Для этого векторные изображения (шрифты) растеризуются. Этим занимается RIP—Raster Image Processor, который и выводит плёнки, я видел и 12000 dpi плёнки, и сам делал кальки на 600 dpi (если не надо особо высокое качество или печатная машина старая).
Глаза устают не потому что «шрифт паршивый», а потому что бумага плохая (тонкая и тёмная, контрастность низкая) и напечатано так, что растискивание очень сильное (там куча факторов на самом деле: и бумага, и краска, и растворитель, и машина, и износ валиков, и прямые руки и иногда волшебство печатника) и буквы «едут».
Финальное разрешение в терминах dpi или ppl посчитать нельзя, есть LPI (lines per inch), но его по факту считают, печатая миры с известным количеством линий и шагом между ними. И понятно что даже внутри одного тиража LPI будет плавать.
Я вот уже давно с компа читаю.
Представьте себе дизайнера шрифтов, который тщательно сбалансировал каждую букву, поместил каждую точку с точностью до 1/100 пикселя

Нет, яблочники действительно верят в такое?
Можно было бы просто сослаться на гиперболу, но…
Внутри шрифта используется специальная система координат, в которой за 1 единицу принимается 1/N-ая часть кегля, где N = 1000, 1024 или 2048 (в большинстве случаев, но иногда бывает и больше).
Если взять дефолтный вебовский кегль 16px и поделить его на минимальные 1000 частей, то получится, что автор даже почти не преувеличивал.
йеп. Автор даже разработал собственный шрифт — Fira Code
Полундра, автор в чате!
UFO just landed and posted this here
Судя по всему, это автор думал так раньше скорее всего). А вообще что можно ждать от человека, который не разобрался с маркировкой USB перед написанием статьи и спецификациями мониторов.
Имхо hdr+цветопередача > герцы > dpi, но очевидно каждой задаче и каждому человеку свое. Но как обычно все упирается в цену
цветопередачу я еще могу понять (фотографы там, видеомонтаж), но hdr зачем нужен? игры?
Игры в меньшей степени, фильмы в большей. HDR еще для монтажа может пригодиться, кто-то ведь его монтирует, этот HDR. Но там без контрольного монитора особо делать нечего…
Сто лет кино но мониторе не смотрел. А что, много фильмов в HDR сейчас выходит?
На самом деле чуть ли не все 4К. Это, порой, и неудобства доставляет: хотел на работе посмотреть «Марсианин» со своего сервера Plex, а браузерный плеер не умеет ремапить HDR в SDR. В итоге получается выцветшая, почти бесцветная картинка. Пришлось смотреть дома.
виндовый плеер умеет конвертить в SDR
На работе, к сожалению, Mac. И плеер с сайта вообще воспроизводить фильмы не хочет, выбивает ошибку.
UFO just landed and posted this here

Переход на 4к монитор — это дорога в одну сторону.
Помню, как купил 4к монитор, подключил, поработал пару дней — вроде неплохо. Ну не знаю, стоило ли оно того, но дело сделано.
А потом практически случайно заглянул в старый FullHD монитор.
И тут я все понял :)

UFO just landed and posted this here

Это правда. 120 не пользовался, но разница между 30 и 60 огромная.

На телефоне разница между 60 и 120 воспринимается поначалу примерно так же — плавное движение, по первости даже как-то не очень естесственно выглядит. Но только при скролле. При открытии приложении и во всяких анимациях между экранами особой разницы нет.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
Купил в этом месяце 144-герцовый монитор. Может, я слепошарый (а я слепошарый настолько, что в очках вынужден выставлять масштаб 150%), но разницы с 60 Гц не увидел. Ни в играх, ни при работе в 2D.

А на ЭЛТ-мониторе когда-то замечал разницу между 60 и 75, глазам было комфортнее на 75.

Возможно, стоило вместо герц вложить деньги в более высокое разрешение, чем 1920x1080, но, поправьте, если я заблуждаюсь, если мне при 1920x1080 приходится работать с масштабом 150%, то при 2560 x 1440 пришлось бы ещё больше увеличивать масштабирование и смысл высокого разрешения был бы потерян.
На ЭЛТ-то понятно, там кадры мерцают, и чем чаще перерисовываются, тем меньше успевает погаснуть люминофор.
P.S. Проверьте ещё, что у вас и в ОС выставлено 144Гц, и в играх успевает столько отрисовываться.
В теории — да, люминофор не мерцает. А на практике у меня на LCD при 60 Гц начинают болеть глаза, а потом кружиться голова. На 75 — нормально.
А на практике у меня на LCD при 60 Гц начинают болеть глаза, а потом кружиться голова. На 75 — нормально.

У меня такое было на старом (кажется, от samsung) мониторе, купленном в 2005 году. 60Гц ощутимо отличались от 75Гц тем, что на 60Гц ровно через две минуты начинали болеть глаза.
Мониторы, которые я покупал позже, в основном поддерживали максимум 60Гц, но глаза от них не болят.

Потому что на LCD панелях подсветка регулируется через PWM — отсюда и мерцание. На дешевых это делается соотв. хуже. В особо подробных обзорах панелей это тоже тестируют.
Если устают глаза, попробуйте уменьшить яркость. Не первый раз слышал от людей, как они этого не замечали и сидели с буквально красными глазами из-за монитора (а у некоторых мониторов контраст/резкость такие высокие по-умолчанию, что там только от этого глазам больно как по мне).

В моём случае в подсветке монитора были люминесцентные трубки дневного света. Неужели и они регулировались PWM, зависящим от частоты обновления экрана? На 75Гц было комфортно и по 12 часов за монитором сидеть, независимо от яркости.

Трубки CCFL тоже регулируются ШИМом (PWM), но от частоты обновления он никак не зависит, его частота задается чипом в мониторе. Для CCFL это обычно 175 Гц. Соответственно, возможна ситуация, когда частота ШИМа и частота обновления "синхронизируются", что усиливает эффект мерцания и ведет к боли в глазах. Изменили частоту обновления, "рассинхронизировали", все ок.

UFO just landed and posted this here
Да, верно, освежил память. Получается парадокс: яркость — усталость и низкочастотный PWM — усталось.
UFO just landed and posted this here
UFO just landed and posted this here
Надо использовать гашение яркости через гамму. Реализовано, например, во f.lux (https://justgetflux.com/). Минусы очевидны — влияние на цветопередачу. Но если без фанатизма, то работает хорошо.
Если я правильно понял, то наоборот, яркость надо увеличивать. PWM — это принудительное снижение яркости экрана через периодическое отключение напряжения.
Да. В статье, которую я Вам вчера выслал ЛС, так и говорится — увеличить «яркость» панели (=100% ШИМ) при этом сделать в настройках видеокарты меньшую яркость/контраст (=ЖК будут блокировать больше цвета, если я правильно понимаю). От этого по идее должно уменьшиться цветовое пространство то бишь контраст, так как ЖК никогда в таком режиме не будут пропускать свет на полную (а работать, допустим, в диапазоне 0%-50%)
Хм, теперь я знаю причину, почему за монитором меня начинает вырубать. Причём состояние не просто «кружится голова», а уже какое-то предобморочное состояние. Кстати глаза при этом не болят. Монитор даже не 60Гц, а 59.

BENQ GW2765, кому интересно
UFO just landed and posted this here
Да вот эта петрушка началась, как только купил этот монитор. Расстояние до монитора 100-120 сантиметров
Возможно, стоило вместо герц вложить деньги в более высокое разрешение, чем 1920x1080, но, поправьте, если я заблуждаюсь, если мне при 1920x1080 приходится работать с масштабом 150%, то при 2560 x 1440 пришлось бы ещё больше увеличивать масштабирование и смысл высокого разрешения был бы потерян.
Вопрос сводится не к разрешению, а к угловому размеру точки. Если Вам на мониторе при 1920х1080 приходится работать с 150% масштабом, то можно или а) сесть поближе б) купить монитор побольше размером. Второе разумнее.
Если посмотреть нормы санпина, то для комфортной работы 1920х1080 должно быть примерно на 24" мониторе (исходя из размера точка, размеров монитора, расстояния до экрана). Но попробуйте такое сказать публично где-то и Вас заклюют поклонники ретины:) Для 4к надо не меньше 42". Для 2560х1440 в районе 32" нормально.
Но попробуйте такое сказать публично где-то и Вас заклюют поклонники ретины

простите, что? Где именно поклонники ретины (например, автор этой статьи) диктуют логический dpi?

Из статьи
43% всё ещё используют мониторы с плотностью пикселей на дюйм менее 150:
Почему это проблема?

и далее по тексту много аналогичного.
Справочно: 1920х1080 при 24" имеет 90dpi.

А, понял вас. А можете, плиз, дать ссыль на эти нормы санпина, где прописан dpi для комфортной работы — хочу просветиться.

А можете указать, в каком пункте об этом говорится? Не смог найти ничего о размерах точки.

А Вы не издеваетесь случаем? Сначала Вы типа в статье не видите где про dpi сказано, потом Вам гост лениво погуглить, теперь уже в самом госте Вам надо конкретный пункт указать.
Окей, последний раз — «5.5 Ширина контура знака должна быть от 0,25 до 0,5 мм.»©
Контура знака! Про пиксели ничего не говорится. У вас может быть и 3 пикселя на эту ширину, и 300.
Вот прямо сейчас у меня на 4К экране эти буквы шириной около мм.

Я там вижу про знак. Где конкретно про точку? Знак может состоять как из 10 точек, так и из 100 (при ретине). Так что это явно не я издеваюсь.

Вы изначально говорили про «логический dpi», а не физический. Вот этот habr.com/en/post/508824/#comment_21792250 Ваш коммент, вспомните о чем была дискуссия все же.
Сколько бы физических дпи не было — хоть 10 хоть 100, логический дпи вполне четко определяется гостом.
Если Вы не разобрались что такое «знак», то ширина контура знака в минималке это как раз и есть один логический пиксел.
ad1Dima в данном контексте речь про логические пикселы шла. То что физически у Вас 240к экран может быть — не имеет значения, коль скоро Вы фуллхд выставили на нем.

Э-э. Я что-то потерял нить дискуссии. Конечно, в том комменте я говорил о логическом dpi. Давайте вернемся к исходному вашему сообщению, на которое я отвечал:


Если посмотреть нормы санпина, то для комфортной работы 1920х1080 должно быть примерно на 24" мониторе (исходя из размера точка, размеров монитора, расстояния до экрана).

Значит, здесь вы говорили о логическом dpi? И именно этот параметр диктует санпин? Ок, здесь я не имею ничего против.
Но, следующее ваше предложение:


Но попробуйте такое сказать публично где-то и Вас заклюют поклонники ретины:)

вот я, один из поклонников ретины, и я не вижу, за что вас должны заклевать. Поклонникам ретины строго пофигу, какой логический dpi предпочитает юзер, их волнует только физический dpi. Физического dpi должно хватать, чтобы физические точки не были заметны. Только и всего.

Покупал 32 дюйма, он огромный и не подходит для стандартного рабочего стола, особенно по высоте — приходится головой вертеть…
для обычного комп. стола нужен не более 27 дюймов, и соответственно не более wqhd 1440p. Проверено.
Ммм, а что такое «стандартный рабочий стол»? Их же в мире чуть ли не больше, чем видов бактерий. Но по-моему, 32" практически на любом столе нормально помещается, на достаточном расстоянии, чтобы головой не вертеть. Ну кроме совсем уж крохотных столов.

Ну вот у меня стол 70см глубиной (это много считается), 27" еле помещается на вытянутой руке — ближе уже башкой вертеть, что края экрана видеть не периферией.

Наверное разница между минимально допустимое разрешение и максимально приятное. Да можно жить на 1920х1080 на 24" но разве это жизнь?

Если взять угловое разрешение глаза (1 угловая минута) и посчитать разрешение на расстоянии 40 см от экрана, получится как раз 220 dpi. Что и называется Retina — размер пикселя соответствует разрешению глаза. Типа, верхний предел — дальше улучшать нет смысла. Но все что меньше — заметно хуже (при условии фиксированного растояния, если поставить монитор дальше, dpi будет другим, конечно).

А если поставить на 80, то будет как раз 110 dpi, типичный 1080p на 24" :) Я взял 27" 1440p с теми же 110 dpi, просто потому что два монитора дома ставить тупо некуда, надо менять всё начиная с квартиры

Заметьте, что 1 угловая минута — это угловое разрешение сферического глаза в вакууме. А так-то оно сильно зависит и от того, кто смотрит, и от того, на что смотрят. Поэтому дальше улучшать смысл есть, просто уже не все и не всегда смогут улучшение заметить.
UFO just landed and posted this here
на iOS система анимации отличается от таковой на винде\андроиде — при анимации у яблочных операционок дорисовываются слегка размытые копии анимируемого объекта, тем самым создавая плавность анимации. в других же операционках идет банальное покадровое изменение, без промежуточных обработок. на ютубе где-то видос даже проскакивал с записью всего этого процесса на высокоскоростную камеру
UFO just landed and posted this here
Никакая ОС не блюрит анимации, насколько мне известно. Запись со скоростной камеры записала скорее всего переключение пикселей, которое случается немнгновенно на LCD. То есть шлейф создается как бы естественным образом, но опять же, он будет одинаков на любой ОС.
UFO just landed and posted this here

OLED гораздо быстрее умеет переключаться и там блюр сильно менее выражен.
К сожалению, OLED-монитор для компьютера за разумные деньги пока не купить.

UFO just landed and posted this here
UFO just landed and posted this here

Зачем нужен заоблачный PPI? После 300 разницу можно увидеть только разглядывая экран вплотную.
А для 1000 Гц нужно уметь полный цикл отрисовки успевать в 1 мс. При том, что сейчас многие приложения даже в 16 не всегда укладываются.

UFO just landed and posted this here
для шрифтов практически нет предела разрешения с которым их можно рендерить

У техники есть ограничения по pixelrate, который она может выдавать :(
И любое увеличение плотности пикселей ведёт к квадратичному росту требуемой производительности и ширины всех каналов.


А про рефреш рейт — пока запроса нет, то и программ таких не будет

Есть такой запрос — VR. Чем выше refresh rate и чем ниже общая задержка всего цикла motion-to-light, тем реалистичнее ощущается виртуальный мир. На текущих технологиях мы где-то в районе 2880x1600@144 Гц и 22 мс. Это на самых топовых компьютерах, в простых по графике играх, с кучкой специфичных оптимизаций драйверов.

UFO just landed and posted this here
То, что сегодня «топовые компьютеры с кучкой специфических оптимизаций» имеет все шансы через десять лет стать просто обычными компьютерами с обычными драйверами.

Это да. А вот по поводу бурного прогресса в топовых компьютерах через 10 лет у меня большие сомнения.
Пока выглядит так, что единственным реальным способом повышать разрешение и снижать задержки является отслеживание движений зрачков и отрисовка в высоком разрешении небольшой области в центре взгляда. Длительность и предсказуемость траектории саккад вполне позволяет проворачивать такой финт за время подготовки кадра.
Но вот обычным мониторам и прикладным программам это никак не поможет, как не помог гейминг в 120 Гц за последние 15-20 лет.

UFO just landed and posted this here
про инпут лаг ещё мало кто слышал

Геймеры в массе слышали и выбирали устройства по нему. С тех пор мало что изменилось.


а вспомнить что тогда было на телефонах так вообще труба — слайдшоу из-за хреновеньких экранов и плохой производительности

Как раз ровно 10 лет назад вышел iPhone 4, который к неплохой производительности и отзывчивости интерфейса добавил Retina экран.


да и софт был ппц, всё подряд блокировало отрисовку

Нет, конечно. Нормальные программисты и тогда разделяли потоки UI и основной работы. А с ппц софтом всё только хуже становится — electron везде, flutter заводят под лозунгом "стабильных 60 fps", которые он не может выдать даже на последних iPhone с процессором мощнее чем в моём ноуте.


Потом постепенно и инпут лаг заметили (и начали бороться, потому что потребители требовательные ныли)

Не вижу я этой борьбы. И отдельные фанатики latency тут ничего не решают.

Когда вижу реальные 60 гц видео в ютубе, конечно они супер плавные по сравнение с 25-30 кадрами, но я не знаю будет ли плавнее при 120, наверное это только для резких игр критично.
Эту разницу я всегда видел по ТВ. Когда прямая трансляция, то люди двигаются плавнее, чем, например, в художественном фильме.

Разница между 24 кадра фильма и 50-60 кадров ТВ и видео заметна, наверное, всем людям. А вот заметно ли разницу между 60 и 120 кадров даже проверить не на чем. Скорее всего, тоже будет заметно, но насколько — вопрос.

Разницу между 60 и 120 можно увидеть, банально подвигав мышкой.

Именно что лишь двигая мышью и можно увидеть разницу; однако, не проще ли просто переключить тогда мышь на другое разрешение, чем переплачивать за частоту?
не проще ли просто переключить тогда мышь на другое разрешение
Как это спасёт от того, что при резком движении курсор перед вами отрисуется в нескольких дискретных точках вместо плавного движения? Или вы предлагаете сделать так, чтобы быстро мышью вообще невозможно было двигать? Такое себе решение.
— Я когда бегаю, мне в ботинках неудобно, может, кроссовки подороже купить?
— Нет, просто прострелите себе ногу! Вы не сможете бегать, и проблема исчезнет.
Речь о курсоре, в принципе, даже и не шла — я подразумевал движение камеры в 3d нагрузках. Но о курсоре загадка интересная т.к. после определенной частоты человек перестает различать смену кадров, а раз курсор быстрее кадра невозможно увидеть, то фактическая плавность все равно будет лимитироваться некой пороговой частотой восприятия изменений картинки. Остальное — смесь тактильных ощущений от движения мыши и впечатления от изменений движения курсора, а это ведь можно в теории подстроить за счет мыши. Сугубо мой личный взгляд.
UFO just landed and posted this here
И эта частота — 24 кадра.

Нет. 24 к/с были выбраны как компромисс после появления звукового кино. И здесь чисто технические причины, а не оптические.
UFO just landed and posted this here
Нет. 24 к/с были выбраны, потому что именно на такой скорости было удобно записывать, редактировать и воспроизводить более-менее приличный ЗВУК. Немые фильмы были с частотой кадров и 16, и даже 12.
А снимать быстрее 24 к/с уже и тогда умели, никаких сложностей в этом нет. Только расход пленки повышается.
UFO just landed and posted this here
24 делится на 24,12,8,6,4,3 и 2 — удобно редактировать. Скорость протяжки позволяет записывать приемлемый диапазон звука.

Чтоб вы понимали о чем речь: раньше на кинопленке был записан и звук. Оптическим способом.

Встречный вопрос: почему выбрали 24, хотя слайд-шоу уже не видно и на 16, а Томас Эдисон выступал за 46 (или 48)?

А куда, по-вашему, писался звук?

Вы ни разу не видели кинопленку, где сбоку оптическая звуковая дорожка? А то и две, если стерео.
Предлагаю вам посмотреть вот это замечательное видео по теме.
UFO just landed and posted this here
Где находится верхний предел, за которым человек не видит изменений — не особо понятно и зависит от индивидуальных особенностей, тренировки и того, что мы считаем изменениями и например, яркости (потому что в темноте «скорость затвора» увеличивается как и у фотоаппарата).

Абсолютно согласен что предельная частота кадров это дело крайне темное; особенно, если вспомнить как разницу в FPS можно наблюдать по игровых скелетным анимациям. Реальный предел, по-моему, лежит между 40-50, максимум до 55 Гц.
Кстати, пример с курсором говорит скорее в пользу моего взгляда и того, что наблюдаемая разница выше 40 Гц связана просто с изменениями движения курсора.

Я отлично вижу разницу между 90 и 120 Гц.
Между 120 и 240 для меня уже едва различимо, но профессиональные игроки в шутеры эту разницу отлично чувствуют в слепых тестах.

Что можно увидеть 120Гц кажется маловероятным, а вот почувствовать можно элементарно т.к. скорость и точность движения курсора зависят в т.ч. от частоты кадров. В настоящем слепом тесте настройки мыши должны компенсировать изменения.
Что можно увидеть 120Гц кажется маловероятным

Попробуйте посидеть день за монитором с 240 Гц, а потом переключить его в 90 Гц. Отлично видно, как скролл и анимации распадаются на отдельные кадры.
При 240 -> 120 я такого уже не вижу, только ощущаю снизившуюся гладкость интерфейса.

UFO just landed and posted this here
Достаточно изменить чувствительность мыши.

Чтобы изображение дёргалось рывками даже на 240 Гц?


Я думаю, вы хотели сказать про Motion-to-Light latency.
Эта задержка зависит от многих параметров: перифирия ввода, архитектура игрового движка, настройки игры, настройки видеокарты, пропускная способность видеовыхода, софт в мониторе, технологии G-Sync/Freesync… В обычных условиях она может находиться в диапазоне от 25 до 100+ мс.
Чтобы снизить эту задержку для VR до 20 мс пришлось сделать множество нетривиальных изменений в архитектуре игр, видеодрайверах и даже видеоподсистеме Windows.
Собственно, от перехода 120 Гц -> 240 Гц эта latency уменьшается очень незначительно, примерно на 4 мс.

А ещё можно добавить задержку реакции человека, которая превышает 100 мс и скорость нервной проводимости, по которой я видел данные о 20-50 мс от возникновения сигнала в головном мозге до начала движения руки.

Чтобы изображение дёргалось рывками даже на 240 Гц?

Любые кадры сменяются резко, причем граница заметности это смены лежит явно гораздо ниже 240 Гц. Официально, вообще говоря, 50 Гц. Если-же под изображением понимается именно само изображение курсора, то его восприятие упирается всю в ту-же границу.
Я думаю, вы хотели сказать про Motion-to-Light latency.

Нет, ничего общего. Описываемый эффект связан не с геймингом на мониторе, а с использованием шлемов ВР, причем проблемой являются не жалобы на качество картинки или движения в ВР среде, а банальное укачивание игрока.
А ещё можно добавить задержку реакции человека, которая превышает 100 мс

Не уверен но в таком случае хватило бы 10 Гц для иллюзии непрерывности анимации.
UFO just landed and posted this here
Да? Спецификации человека от самого Его?

В смысле, от некоего бога или от какого-нибудь известного деятеля информационной сферы? На самом деле, 50Гц и есть некий максимум восприятия, а +10Гц запас, отсюда и известные всем 60Гц.
И возникает оно потому что показания вестибулярного аппарата расходятся с показаниями глаз.

Ну а информация поступающая через глаза зависит от частоты кадров в самих очках ВР.
Меня, кстати, и в обычных играх с ездой укачивает без всякого ВР, GTA5 укачивала примерно после 15 минут игры.
UFO just landed and posted this here
Вот и я спрашиваю, откуда дровишки?

Даже не обращаясь к какому-либо поиску, можно определить что предел частоты (ок. 50 Гц) для восприятия глаза был установлен примерно в конце 19-го — максимум в начале 20-го века. И об этом очень легко догадаться, если вспомнить о войне токов и о распространении бытовых сетей переменного тока с лампами накаливания.
Как будто от самого Бога получили.

Как видно, для решения вопроса боги тут не нужны, а достаточно лишь вспомнить об освещении или посмотреть на уличные лампы ДНаТ (оранжевый свет).
Ах да, восприятие штука не дискретная.

Не могу не согласиться, скорость восприятия человека действительно может меняться в зависимости от внимания. Напр. можно просто посмотреть на движущуюся секундную стрелку часов, а потом попытаться внимательно проследить за ней, во втором случае покажется, что она движется куда медленнее.
Поворот головы активирует гироскоп, который шлёт сигнал в ПК, который пересчитывает кадры, которые поступают назад на дисплей шлема.

Это скорее уже к производительности или скорости чтения носителя информации.
UFO just landed and posted this here
Через диодный мостик без компенсирующего конденсатора (я иногда использую такую простую конструкцию вместе с лампой накаливания в качестве резистора, когда для электролиза какой-нибудь необычной среды мне нужно напряжение выше обычно используемых десятка вольт) кстати периферийным зрением отлично видно, что лампочка мерцает, а прямо нет. Т.е. в реальности порог для фронтального зрения должен быть немного ниже.
UFO just landed and posted this here
Не забывайте, лампа накаливания мерцает 100 Гц — по одной «вспышке» на каждый полупериод тока.

Кстати, я в туалете поставил дешевые светодиодные лампы — при повороте головы — довольно сильно заметный стробоскопический эффект.

Аналогичный эффект заметен в играх на 60 Гц при резком развороте
А почему не должно было наблюдаться стробоскопического эффекта?
Если бы 50 Гц было действительно достаточно — у меня бы картинка перед глазами просто расплывалась (т.к. светодиодная лампа — это не лампа вспышка в стробоскопе — светит достаточно большую часть полупериода сетевого напряжения)

Я просто привел иллюстрацию того, что 50-60 Гц обновления картинки на мониторе в некоторых ситуациях — недостаточно.
Если мы, например, пытаемся читать текст при плавной или достаточно быстрой прокрутке — при недостаточной частоте кадров — текст расплывается и для его чтения нужен монитор с высокой частотой кадров, о чем и говорит авто статьи.

Да, без чтения при прокрутке можно обойтись, но если кто-то может позволить себе дополнительный комфорт, то почему бы и нет?
Нить в лампе накаливания не успевает остыть и по этому не мерцает от слова совсем.
UFO just landed and posted this here
Любые кадры сменяются резко, причем граница заметности это смены лежит явно гораздо ниже 240 Гц.

Я про то, что если снижать именно чувствительность, а не увеличивать Input Lag мыши, то непонятно, чего вы добьётесь, кроме как скачущего рывками курсора мыши.


Официально, вообще говоря, 50 Гц.

Что значит "официально"? Закон такой приняли?


Нет, ничего общего. Описываемый эффект связан не с геймингом на мониторе, а с использованием шлемов ВР

Если что, эта метрика применима к чему угодно. Для VR она просто стала критично необходимой, поэтому о ней много начали говорить.
В игре за монитором она означает время от физического сдвига мыши до изменения изображения на мониторе.


Не уверен но в таком случае хватило бы 10 Гц для иллюзии непрерывности анимации.

Интересно вы так связали между собой задержку реакции и восприятие непрерывности движения.

Я про то, что если снижать именно чувствительность, а не увеличивать Input Lag мыши, то непонятно, чего вы добьётесь, кроме как скачущего рывками курсора мыши.

Я нашел очень простое объяснение — если допустить, что синхронизация изображения и курсора мыши происходит лишь каждый кадр, то все становится на свои места. Увеличение частоты кадров (в т.ч. без всякой оглядки на устройство вывода, напр. 200FPS на 60Гц мониторе) попросту повышает частоту синхронизации изображения и устройства ввода, отсюда и плавность которую люди чувствуют при высоких значениях ФПС. Повышение частоты кадров аналогично должно вызывать и повышение плавности прокрутки, движения самого курсора и т.п., что тут и описывают люди. Однако-же, реально больше кадров человек не видит исходя из общих представлений о физиологии.
Что значит «официально»? Закон такой приняли?

Почему 50 Гц вызывают такую реакцию? Еще 15 лет назад все и везде могли наблюдать лампы накаливания, мерцающие с частотой бытовой сети т.е. с частотой 50 Гц.
Если что, эта метрика применима к чему угодно.

Я не нашел. Да и укачивание за мониторов явление нечастое.
Интересно вы так связали между собой задержку реакции и восприятие непрерывности движения.

0.1сек задержка -> мгновенная реакция -> 0.1 сек задержка -> мгновенная реакция и т.д.
Еще 15 лет назад все и везде могли наблюдать лампы накаливания, мерцающие с частотой бытовой сети т.е. с частотой 50 Гц.

Я и 35 лет назад не мог, и 15, и сейчас не могу...

А что случилось? Есть предположения что частота мерцания вдвое выше?

Видимо моя частота сканирования ниже обычного человека...

Фотоаппаратом эти мерцания ловятся. Просто коэффициент пульсации порядка 0.15, вот и сложно его глазом заметить.

Я нашел очень простое объяснение — если допустить, что синхронизация изображения и курсора мыши происходит лишь каждый кадр, то все становится на свои места.

Объяснение простое, но неправильное.
Данные от мыши в приложение приходят абсолютно независимо от видеоподсистемы. Драйвер мыши опрашивает устройство с фиксированной частотой (от 125 до 1000 Гц, в зависимости от устройства и драйвера), ОС опрашивает драйвер тоже с какой-то фиксированной частотой и передаёт события в приложение. А уже приложение само решает, в какой момент их обработать. При отсутствии vsync — так часто, как позволяет производительность компьютера рассчитывать новые кадры.


Повышение частоты кадров аналогично должно вызывать и повышение плавности прокрутки, движения самого курсора и т.п., что тут и описывают люди. Однако-же, реально больше кадров человек не видит исходя из общих представлений о физиологии.

Так как же люди видят плавность, если не видят? :D
Вот возьмём равномерно прокручиваемую страницу с текстом. Я отчётливо вижу разницу между прокруткой на мониторе с 60 Гц и с 120 Гц. Откуда взяться увеличившейся "плавности", если не из частоты обновления изображения на мониторе?


Почему 50 Гц вызывают такую реакцию? Еще 15 лет назад все и везде могли наблюдать лампы накаливания, мерцающие с частотой бытовой сети т.е. с частотой 50 Гц.

Лампы накаливания почти не имеют пульсаций, поэтому я не понимаю, что именно вы наблюдали 15 лет назад.
UPD: Поправлю сам себя — это верно только для мощных ламп с теплоёмекой нитью накаливания. Плохие лампы дневного света мерцают гораздо сильнее, поэтому осталось хорошее впечатление от "нагреваек".


Мерцание CRT мониторов вплоть до 100 Гц я наблюдал, да, и меня это крайне раздражало.


Я не нашел. Да и укачивание за мониторов явление нечастое.

Про укачивание я ничего не горорил, это вы начали о нём зачем-то.
Я говорил о том, что по сравнению с полным циклом обработки компьютером одного фрейма, input lag мыши невелик и не вносит существенной разницы (на частотах 120-240 Гц).


0.1сек задержка -> мгновенная реакция -> 0.1 сек задержка -> мгновенная реакция и т.д.

Если вы хотите дёргать рукой на каждое изменение изображения, то больше 10 Гц вы не достигните, да.
Но это не имеет вообще никакого отношения к восприятию непрерывности движения и различению отдельных кадров.

Данные от мыши в приложение приходят абсолютно независимо от видеоподсистемы. Драйвер мыши опрашивает устройство с фиксированной частотой (от 125 до 1000 Гц, в зависимости от устройства и драйвера), ОС опрашивает драйвер тоже с какой-то фиксированной частотой и передаёт события в приложение. А уже приложение само решает, в какой момент их обработать. При отсутствии vsync — так часто, как позволяет производительность компьютера.

А дальше-то что?
А далее некое приложение (что угодно) отрисовывает кадр и показывает его пользователю. Это и есть синхронизация курсора и положения мыши.
Если кадров много мы видим курсор все чаще, его движения кажутся все плавнее. Аналогично про камеру в 3d игре.
Так как же люди видят плавность, если не видят? :D

А я и не разу не использовал слова «видеть» в отношении числа ФПС; я как раз неоднократно писал, что увидеть больше определенного предела кадров невозможно, а почувствовать легко.
Я отчётливо вижу разницу между прокруткой на мониторе с 60 Гц и с 120 Гц. Откуда взяться увеличившейся «плавности», если не из частоты обновления изображения на мониторе?

А какова была и есть частота входящего в мониторы сигнала?
Лампы накаливания почти не имеют пульсаций, поэтому я не понимаю, что именно вы наблюдали 15 лет назад.

Я наблюдал отсутствие мерцания. Это говорит, что более 50Гц увидеть человек не может т.к. это частота тока в бытовой сети.
Про укачивание я ничего не горорил, это вы начали о нём зачем-то.

Именно так, потому что укачивание в ВР-очках и есть главное последствие и проблема данного эффекта.
Я говорил о том, что по сравнению с полным циклом обработки компьютером одного фрейма, input lag мыши невелик и не вносит существенной разницы (на частотах 120-240 Гц).

Это хорошо, но я писал об увеличении чувствительности мыши.
Если вы хотите дёргать рукой на каждое изменение изображения, то больше 10 Гц вы не достигните, да.
Но это не имеет вообще никакого отношения к восприятию непрерывности движения и различению отдельных кадров.

И?..
А далее некое приложение (что угодно) отрисовывает кадр и показывает его пользователю. Это и есть синхронизация курсора и положения мыши.

Так а что тогда предлагается "компенсировать" в эксперименте? Ограничить частоту обновления мыши в 60 Гц на 120 Гц мониторе? Что тогда этот эксперимент вообще может показать?


А я и не разу не использовал слова «видеть» в отношении числа ФПС; я как раз неоднократно писал, что увидеть больше определенного предела кадров невозможно, а почувствовать легко.

У вас в одном предложении "не использовал слова «видеть» в отношении числа ФПС" и "неоднократно писал, что увидеть больше определенного предела кадров невозможно".
Я при всём желании не могу понять, что вы имеете в виду.


Я отчётливо вижу разницу между прокруткой на мониторе с 60 Гц и с 120 Гц. Откуда взяться увеличившейся «плавности», если не из частоты обновления изображения на мониторе?
А какова была и есть частота входящего в мониторы сигнала?

Ровно такая, какую отображает монитор. Мониторы так работают.


Я наблюдал отсутствие мерцания. Это говорит, что более 50Гц увидеть человек не может т.к. это частота тока в бытовой сети.

Вы наблюдали тепловую инерцию нагреваемой спирали. Она не успевает остыть и погаснуть перед следующим циклом.
С мерцанием вообще всё не так, как с восприятием движения. 60 Гц при low-persistance отчётливо видят видят все мои знакомые, которые пробовали Gear VR.


Про укачивание я ничего не горорил, это вы начали о нём зачем-то.
Именно так, потому что укачивание в ВР-очках и есть главное последствие и проблема данного эффекта.

Какого ещё эффекта?
Я указал величину Motion-to-Light задержки только чтобы показать, насколько потенциальное время реакции профессионального геймера превышает максимальную разницу во времени расчёта фреймов на мониторе 120 Гц и 240 Гц.


Это хорошо, но я писал об увеличении чувствительности мыши.

Чувствительность мыши в общепринятых терминах — это количество различимых состояний, которые мышь может сообщить при перемещении на определённое расстояние (DPI — dots per inch).
Если вы что-то другое имеете в виду, прошу расшифровывать.

Так а что тогда предлагается «компенсировать» в эксперименте?

Увеличение чувствительности мыши (предполагается, что пользователь двигает ею с некоторой усредненной но постоянной скоростью; при повышении частоты кадров скорость мыши также увеличивается, смтр. хотя-бы пример с частотой выше).
Ограничить частоту обновления мыши в 60 Гц на 120 Гц мониторе?

Частоты опроса мыши на порядок выше.
У вас в одном предложении «не использовал слова «видеть» в отношении числа ФПС» и «неоднократно писал, что увидеть больше определенного предела кадров невозможно».

Где я указывал что более 50 Гц можно увидеть?
Ровно такая, какую отображает монитор. Мониторы так работают.

В этом и ответ — подключая монитор с большей частотой пользователь заставляет компьютер выдавать сигнал с большей частотой; если производительности на это хватает, то пользователь не увидит кадров больше естественного предела, но почувствует увеличение синхронизации отображаемой картинку с мышью. Это и есть объяснение, почему работающие на мониторах с большей частотой не могут согласиться, что разницы с более низкочастотными нет, но и не могут конкретно указать в чем она.
Вы наблюдали тепловую инерцию нагреваемой спирали. Она не успевает остыть и погаснуть перед следующим циклом.

Для наблюдения разницы спираль и не должна остыть полностью; достаточно вспомнить что разница между поверхностью Солнца и солнечными пятнами составляет всего 1.5 тыс. град. (что совсем немного для термоядерныъ энергий и температур светила), при этом они отлично видны и были засвидетельствованы еще в незапамятные времена.
Кроме ламп накаливания, мерцают почти все типы источников света (в т.ч. мерцать даже светодиодные при плохом источнике питания) — 30 лет назад были очень распространены удешевленные варианты светильников люминесцентных ламп работавших без повышения частоты напряжения.
Какого ещё эффекта?
Я указал величину Motion-to-Light задержки только чтобы показать, насколько потенциальное время реакции профессионального геймера превышает максимальную разницу во времени расчёта фреймов на мониторе 120 Гц и 240 Гц.

Описываемый термин был создан для пояснения эффекта укачивания в очках ВР, к мониторам он прямого отношения не имеет вовсе.
Чувствительность мыши в общепринятых терминах — это количество различимых состояний

А квантовое состояние мыши? Мышь движется лишь по двум осям в одной плоскости, какие уж «количество различимых состояний»…
DPI — dots per inch

Число точек уместнее, но причем они к «количеству различимых состояний»?
UFO just landed and posted this here
С чего бы?

Смтр. пример выше с сайтом который показывает курсор мыши на разных частотах.
Как раз 120 по умолчанию. Можно довести до 1000.

У всех A4Tech в серии X7 (сколько им десятилетий не знаю, но как минимум ок. полутра уже) частота опроса 500-1000 Гц. Хотя, признаться, на максимальной частоте одна мышь у меня испортилась.
Смтр. пример выше с сайтом который показывает курсор мыши на разных частотах.

А теперь запишите видео, как эти курсоры двигаются и увидите, что их линейная скорость одинакова и указана в настройках теста.

UFO just landed and posted this here
У меня F4 и это настройка.

Смысл фразы в русском языке будет тем менее понятен, чем хуже соблюдаются окончания, суффиксы…
Ах да, 90% мышей не являются игровыми, а в офисных используется стандартные 125 Гц (про 120 я ошибся).

Даже частота 125 Гц вдвое выше стандартной частоты монитора, а наложением двух частот и обусловлена прерывистость курсора.
UFO just landed and posted this here
Эм, нет, вы не правы по всем фронтам.

Где?
UFO just landed and posted this here
UFO just landed and posted this here
Я свою позицию полностью обосновал.
UFO just landed and posted this here
UFO just landed and posted this here
Вот-вот, хороший пример «Я считаю потому что я так считаю».
Вот-вот, хороший пример «Я считаю потому что я так считаю».
Вот-вот, хороший пример «Я считаю потому что я так считаю».

Я предлагаю для начала написать хоть что-то по делу.
Увеличение чувствительности мыши (предполагается, что пользователь двигает ею с некоторой усредненной но постоянной скоростью; при повышении частоты кадров скорость мыши также увеличивается, смтр. хотя-бы пример с частотой выше).

Скорость движения курсора мыши не зависит от частоты монитора.


пользователь не увидит кадров больше естественного предела, но почувствует увеличение синхронизации отображаемой картинку с мышью.

Что такое "увеличение синхронизации"?
1) Изменение положения мыши с большей частотой отображается на мониторе? — Так в этом и смысл выставления большей частоты.
2) Меньше задержка от движения мышью до изменения картинки? — Крайне незначительно, не больше 4 мс на 30-50 мс общей задержки.


Описываемый термин был создан для пояснения эффекта укачивания в очках ВР

Ещё раз повторю — этот термин отлично подходит для измерения общей задержки компьютера, от устройства ввода до устройства вывода. Не нравится термин — давайте будем называть "суммарная задержка".


А квантовое состояние мыши? Мышь движется лишь по двум осям в одной плоскости, какие уж «количество различимых состояний»…
Число точек уместнее, но причем они к «количеству различимых состояний»?

Вы в демагогию начали скатываться. Я вас попросил дать расшифровку, что именно вы подразумеваете под "чувствительность мыши", а заодно объясните, каким образом связали с частотой монитора.

Скорость движения курсора мыши не зависит от частоты монитора.

Зависит, конечно
Наглядно www.testufo.com/mousearrow#count=4&pps=3840


Что такое «увеличение синхронизации»?

Когда пользователь чаще видит обновление положения курсора мыши (более соответствующее ее положению).
1) Изменение положения мыши с большей частотой отображается на мониторе? — Так в этом и смысл выставления большей частоты.

Реального смысла тут нет т.к. производительность пользователя никаким образом не изменяется, меняются лишь его субъективные ощущения от использования манипулятора.
Крайне незначительно, не больше 4 мс на 30-50 мс общей задержки.

50 мс это 20 Гц, 30 мс это 33 Гц; хотя эти частоты тоже обсуждались выше, они далеки даже от 50 Гц.
Ещё раз повторю — этот термин отлично подходит для измерения общей задержки компьютера, от устройства ввода до устройства вывода.

Может подходит, может нет. Но для мониторов его все равно не используют, а столь внезапно адаптировать его не время.
Не нравится термин — давайте будем называть «суммарная задержка».

Зачем?
Вы в демагогию начали скатываться.

Я не умею давать ответы на бессвязные фразы. Могу конечно, но смысла в ответе будет не больше чем в вопросе.
Чувствительность мыши в общепринятых терминах — это количество различимых состояний

Так квантовых состояний или каких вообще?
Я вас попросил дать расшифровку, что именно вы подразумеваете под «чувствительность мыши»

Способность датчика мыши регистрировать изменения ее положения в пространстве.
заодно объясните, каким образом связали с частотой монитора

Поскольку я это описывал уже неоднократно, специально повторю чтобы всем было видно и понятно.

Сигнал устройства вывода (монитор) опаздывает относительно сигнала устройства ввода (чаще всего это мышь); момент отображения измененного положения курсора и есть момент синхронизации реального положения мыши с курсором. Очевидно, что частота синхронизации не может превысить частоту обновления кадров.
При низкой частоте кадров заметная часть положений движущегося курсора будут выпадать, отсюда и характерная прерывистость. При высокой частоте наоборот будет появляться плавность т.к. мышь вполне реально чаще опрашивается приложением. Может возникать впечатление, что человек видит дополнительные кадры сверх физиологического предела (ок. 50Гц), но это правда лишь наполовину — движущийся курсор действительно будет виден лучше. Он будет виден лучше лишь потому что движется с большой скоростью, которая заведомо не позволяет отображать все его положения не при 60, не при 120, не при 240 Гц (частота опроса мыши заметно выше). Не уверен, стоит ли разбирать пример с testufo, но это быстро — на нем мы видим, что опоздание и прерывистость курсора тем меньше, чем выше частота экрана. Так получается лишь потому что при повышении частоты повышается шанс увидеть быстро движущийся курсор. «Идеальная» плавность движения курсора будет достигнута при частоте монитора, соответствующей частоте опроса мыши, но конечному пользователю разницы от этого не будет т.к. эффект и заканчивается лишь на скорости движения мыши и плотности отображения ее изменений.
Почему люди работают на 120 Гц мониторе, переходят на 240 Гц и чувствуют разницу? Потому что на 120Гц мониторе сигнал почти всегда будет 120 Гц, а на 240 до 240 т.е. речь идет не столько о двух разных мониторах, сколько о двух разных частотах исходящего из компьютера сигналов. Изменения в работе и правда есть, пользователи не врут, но они вызваны лишь повышением частоты кадров в рабочей среде.
По той-же причине не врут и пользователи, которые заявляют что «видят» разницу, когда приложение с производительностью, скажем, более 100 ФПС, выдает 60 Гц сигнал на обычный монитор. Разница есть, увидеть ее как таковую нельзя (если только не следить за курсором мыши очень внимательно), но почувствовать по движению мыши или изменению плавности прокрутки можно.

Я дал исчерпывающее объяснение большей части описанных в статье и комментариях эффектов?

Извиняюсь, но вы пытаетесь рассуждать на темы, в которых не разбираетесь ВООБЩЕ.


50 мс это 20 Гц, 30 мс это 33 Гц; хотя эти частоты тоже обсуждались выше, они далеки даже от 50 Гц.

Компьютеры не работают мгновенно. Они не выполняют все операции синхронно. Пока один кадр ещё только начинает отображаться на мониторе, второй уже заканчивает рендеринг на GPU, в игровом движке в это время рассчитывается состояние мира для отрисовки третьего, и вот примерно в начале этого рассчёта берётся последнее актуальное положение мыши от ОС, которая получила его от драйвера, который получил данные от устройства. На каждом из этих этапов есть буферы, ненулевое время обработки данных, ненулевое время передачи.
Полное время, за которое информация о сдвиге мыши отображается на мониторе — не меньше 25-30 мс в самом идеальном случае: в сурово оптимизированной игре, на высокочастотном мониторе с G-Sync/Freesync, с мышью с минимальными внутренними задержками (да-да, мышь сама по себе, ещё до передачи данных на USB шину, может вносить до 20 мс).
В реальности выходят цифры ближе к 50 мс.


При этом игра может легко рендерить 500 fps, а монитор отображать 240.


Дальнейшую клоунаду с "речь идет не столько о двух разных мониторах, сколько о двух разных частотах исходящего из компьютера сигналов" комментировать не могу, это какая-то клиника.

Компьютеры не работают мгновенно. Они не выполняют все операции синхронно. Пока один кадр ещё только начинает отображаться на мониторе, второй уже заканчивает рендеринг на GPU, в игровом движке в это время рассчитывается состояние мира для отрисовки третьего, и вот примерно в начале этого рассчёта берётся последнее актуальное положение мыши от ОС, которая получила его от драйвера, который получил данные от устройства. На каждом из этих этапов есть буферы, ненулевое время обработки данных, ненулевое время передачи.

Все это прекрасно; но к чему?
Полное время, за которое информация о сдвиге мыши отображается на мониторе — не меньше 25-30 мс в самом идеальном случае: в сурово оптимизированной игре, на высокочастотном мониторе с G-Sync/Freesync, с мышью с минимальными внутренними задержками (да-да, мышь сама по себе, ещё до передачи данных на USB шину, может вносить до 20 мс).

На основании чего сделаны такие выводы? 20мс отвечают обсуждаемой частоте 50Гц.
Впрочем, почему теперь 20 если выше было 50 и 30 мс?
Дальнейшую клоунаду с «речь идет не столько о двух разных мониторах, сколько о двух разных частотах исходящего из компьютера сигналов» комментировать не могу, это какая-то клиника.

Нужно просто внимательно читать написанное и все станет на свои места.
Кроме того, выше я изложил довольно доступно и подробно большую часть из описанных и наблюдаемых эффектов, можно было бы по ним ответ получить, вместо переписывания общеизвестных фактов?
Все это прекрасно; но к чему?
К тому, что курсор может отрисовываться с любой частотой и плавностью, хоть каждую миллисекунду, но реальные движения реальной мыши, которым будет соответствовать каждое его положение, будут произведены за 50мс до отрисовки этого положения. Итого: «момента синхронизации» просто нет — отрисовка курсора в новом положении всегда отстаёт от реального положения мыши, пока она двигается. Пока вы ведёте мышь, курсор следует за ней с отставанием как минимум в 50мс.
пример с testufo, но это быстро — на нем мы видим, что опоздание и прерывистость курсора тем меньше, чем выше частота экрана
От чего вы видите опоздание там? Там реальной мыши нет, от которой можно опаздывать, а положения курсоров в моменты отрисовки полностью совпадают.
К тому, что курсор может отрисовываться с любой частотой и плавностью, хоть каждую миллисекунду, но реальные движения реальной мыши, которым будет соответствовать каждое его положение, будут произведены за 50мс до отрисовки этого положения.

К сожалению, это невозможно т.к. в таком случае реальная частота обновления изображения в кадре в ответ на любые сигналы от устройства ввода не смогла бы превысить 20 Гц. Напр. невозможно было бы вертеть камеру 3d игры с реальной частотой более 20 ФПС.
От чего вы видите опоздание там? Там реальной мыши нет, от которой можно опаздывать, а положения курсоров в моменты отрисовки полностью совпадают.

Точно?
image
К сожалению, это невозможно т.к. в таком случае реальная частота обновления изображения в кадре в ответ на любые сигналы от устройства ввода не смогла бы превысить 20 Гц. Напр. невозможно было бы вертеть камеру 3d игры с реальной частотой более 20 ФПС.
Так почему нет-то? Всё будет с этой скоростью двигаться. Просто с отставанием — начнётся на 50мс позже и закончится на столько же позже. Предположим, вы были неподвижны, а потом двинули мышку, она была в движении 1 секунду. Мышь будет посылать новые координаты каждую миллисекунду, но кадры будут отрисовываться в течение 50мс. Отрисовка вашего движения длиной 1 секунду начнётся на 50мс позже реального, все эти 50мс будут отрисовываться неподвижные кадры, 50 штук, основанные на предыдущих данных, через 50мс кадры начнут меняться, и каждую миллисекунду будет отрисовываться новый кадр, соответствующий положению мыши за 50мс до вывода его на экран. Через 1050мс после того, как вы начали движение (и через 50мс после того, как вы его закончили), кадры снова перестанут меняться, последний из перерисованных кадров будет соответствовать положению мыши за 50мс до его отрисовки — в момент, когда вы остановили мышь.
Точно?
Точно. У вас на скриншоте курсоры на нижних двух полосках показаны не в момент их отрисовки, а в промежутке до следующей отрисовки.
Так почему нет-то? Всё будет с этой скоростью двигаться. Просто с отставанием — начнётся на 50мс позже и закончится на столько же позже.

Так будет лишь в одном случае, когда речь идет о заведомо разученном представлении, оно и правда, начнется на 5 минут позже, и закончится на 5 минут позже. Таких громадных задержек не существует (реальная частота опроса хорошей мыши 500Гц т.е. 2мс) просто потому что они накладывались бы друг на друга т.к. движение мышью не является одной линией (да и ее вести с опозданием было бы тягостно), а прерывисто.
У вас на скриншоте курсоры на нижних двух полосках показаны не в момент их отрисовки, а в промежутке до следующей отрисовки.

Это неверно — все курсоры на скриншоте показаны одинаково (да и вообще, почему именно 2 должны быть отдельно, может, 3?), непосредственно в момент их отрисовки (в противном случае их невозможно было бы увидеть). Разница в движении возникает из-за выпадения части положений курсора на меньшей частоте кадров.
просто потому что они накладывались бы друг на друга т.к. движение мышью не является одной линией
Так почему бы им накладываться-то? Для каждой точки, отправленной оптическим сенсором мыши, может отрисовываться соответствующее положение курсора. В каком порядке они приходят, в том и отрисовываются. Какую кривую описала мышь, ту же опишет и курсор, только начнёт он её описывать чуть позже (те самые 50мс). Частота опроса влияет только на количество промежуточных точек в этой кривой.
непосредственно в момент их отрисовки (в противном случае их невозможно было бы увидеть)
С чего бы их было невозможно увидеть? Они же после отрисовки не прячутся, а остаются на том же месте до следующей отрисовки.
Так почему бы им накладываться-то? Для каждой точки, отправленной оптическим сенсором мыши, может отрисовываться соответствующее положение курсора. В каком порядке они приходят, в том и отрисовываются. Какую кривую описала мышь, ту же опишет и курсор, только начнёт он её описывать чуть позже (те самые 50мс). Частота опроса влияет только на количество промежуточных точек в этой кривой.

Все это прекрасно, но причем вообще тут?
С чего бы их было невозможно увидеть?

Потому что они не нарисованы.
Они же после отрисовки не прячутся, а остаются на том же месте до следующей отрисовки.

Это и так ясно; но что из этого должно следовать?
Все это прекрасно, но причем вообще тут?
Вот это мы и пытаемся понять, какое отношение задержка между моментом сдвига мыши и моментом отрисовки соответствующего нового положения курсора имеет к частоте кадров?
Потому что они не нарисованы.
Пока нарисовано новое положение, мы видим предыдущее.
Вот это мы и пытаемся понять, какое отношение задержка между моментом сдвига мыши и моментом отрисовки соответствующего нового положения курсора имеет к частоте кадров?

habr.com/ru/post/508824/?reply_to=21815770#comment_21807398
Пока нарисовано новое положение, мы видим предыдущее.

Это абсолютно верно.
habr.com/ru/post/508824/?reply_to=21815770#comment_21807398

Процитируйте, пожалуйста, что вы тут хотели привести. Там по ссылке комментарий на три экрана.
В котором написано, в том числе, что курсор должен оказаться там же, где и мышь (это вы там называете «синхронизацией»), и это произойдёт, дескать, при отрисовке ближайшего же кадра, поэтому зависит от частоты обновления экрана. Я правильно понял?
А на самом деле, пока вы двигаете мышь, «синхронизации» не произойдёт вообще никогда — курсор всегда будет отставать на ≈50мс (по оценке Viknet), и это никак не связано с частотой обновления, если обработка кадра идёт 50мс. Просто одновременно в обработке будет больше кадров (не кадров как таковых, но данных для перерисовки, проходящих по пайплайну).
Процитируйте, пожалуйста, что вы тут хотели привести.

Все что выделено жирным, я специально это сделал чтобы один раз написать заранее ответ на все однотипные вопросы, требующие подробного разъяснения проблемы.
В котором написано, в том числе, что курсор должен оказаться там же, где и мышь (это вы там называете «синхронизацией»), и это произойдёт, дескать, при отрисовке ближайшего же кадра, поэтому зависит от частоты обновления экрана. Я правильно понял?

Нет, там все написано.
В конце концов уже просто глупо не изучить позицию того с кем ведешь диалог.
А на самом деле, пока вы двигаете мышь, «синхронизации» не произойдёт вообще никогда — курсор всегда будет отставать на ≈50мс (по оценке Viknet), и это никак не связано с частотой обновления, если обработка кадра идёт 50мс.

С чего, почему я должен так думать? То что я так наивно полагать не могу следует уже из моего первого предложения жирным.
Не хочу показаться занудой, но именно умение воспринимать информацию есть основа общения, в прямом смысле. Чтобы быть хорошим собеседником достаточно слушать, ну а чтобы хорошо вести письменные диалоги, нужно внимательно читать. В противном случае, в чем смысл?
50 мс это 20 Гц, 30 мс это 33 Гц; хотя эти частоты тоже обсуждались выше, они далеки даже от 50 Гц.

Я могу только дать статью, в которой подробно разбирается, откуда именно берётся задержка, почему она сама по себе не влияет на фреймрейт, и проводятся экспериментальные измерения: https://www.anandtech.com/show/2803


Есть ещё более техническая статья с приёмами её уменьшения: https://danluu.com/latency-mitigation/
Вы её отвергнете, т.к. там упоминается VR (хотя сам Кармак в ней же говорит, что всё это применимо к обычным играм), но может кому-то будет интересно.

По такой логике Вы можете взять монитор с задержкой GtG гарантированно не больше 40 мс и не заметить проблем.
Я могу только дать статью

Зачем?
Вы её отвергнете, т.к. там упоминается VR (хотя сам Кармак в ней же говорит, что всё это применимо к обычным играм)

В чем смысл подсовывания чужих текстов без ознакомления с их содержанием или идеей?

Затем, что вы уже несколько дней с упорством делите секунду на общую задержку компьютера, получаете 20 Гц и выводите, что этого не может быть, потому что не может быть никогда.


Поймите одну простую вещь — во всём пайплайне: от мыши до монитора, в каждый момент времени обрабатывается больше одного положения мыши. Иногда намного больше.
И никакого "момента синхронизации" просто не существует, на мониторе отображатся наиболее актуальное положение мыши на ~50 мс в прошлом.
Увеличение частоты рендеринга и отображения увеличит количество отображаемых положений, но на задержку серьёзно не повлияет — величины не те.


В чем смысл подсовывания чужих текстов без ознакомления с их содержанием или идеей?

Я эти статьи читал больше 5 лет назад и даже применял некоторые идеи, поэтому и советую вам прочитать их внимательно.

Затем, что вы уже несколько дней с упорством делите секунду на общую задержку компьютера, получаете 20 Гц и выводите, что этого не может быть, потому что не может быть никогда.

И никакого «момента синхронизации» просто не существует, на мониторе отображатся наиболее актуальное положение мыши на ~50 мс в прошлом.

Увеличение частоты рендеринга и отображения увеличит количество отображаемых положений, но на задержку серьёзно не повлияет — величины не те.

Смтр. выше, выделено жирным.
Я эти статьи читал больше 5 лет назад и даже применял некоторые идеи, поэтому и советую вам прочитать их внимательно.

И какие идеи? Почему не проще написать прямо о чем там идет речь?
Смтр. выше, выделено жирным.
Там первое же предложение неверное.
Нет, там все написано.
В конце концов уже просто глупо не изучить позицию того с кем ведешь диалог.
Там написано «момент синхронизации». Но такого момента нет — пока мышь движется, положение мыши и курсора не синхронны.
С чего, почему я должен так думать? То что я так наивно полагать не могу следует уже из моего первого предложения жирным.
В том и дело, что вы так не думаете, а стоило бы. Вот уж кому стоило бы поучиться читать внимательно, прежде чем поучать.
Там первое же предложение неверное.

По какой причине?
Там написано «момент синхронизации». Но такого момента нет — пока мышь движется, положение мыши и курсора не синхронны.

Смтр. всю ту-же первую фразу.
В том и дело, что вы так не думаете, а стоило бы. Вот уж кому стоило бы поучиться читать внимательно, прежде чем поучать.

Можно подробнее?
Однако-же, реально больше кадров человек не видит исходя из общих представлений о физиологии.

Человеческий глаз воспринимает изображения непрерывно, а не дискретно. А монитор выводит изображения дискретно. Движущийся курсор мыши рисуется без motion blur, и поэтому вместо плавного движения получается шлейф из отдельных дискретных изображений.


Решение проблемы — либо повышение герцовки, либо создание искусственного motion blur. Например, можно рендерить последовательность изображений с увеличенной частотой, а затем усреднять их, но на практике это не делают из-за повышения нагрузки.

Motion Blur — это не решение проблемы, а усугубление. Любая игра с его применением превращается в плохо различимую размазню.


Наши глаза в реальности довольно хорошо цепляются за движущийся объект и отслеживают, чтобы избежать размазывания.

UFO just landed and posted this here
Как так «раскладывается на кадры»? Каждый кадр из 60 в секунду виден отдельно?

Да, каждый кадр виден отдельно — в виде наложения кадров.

За счет инерции зрения эти кадры сливаются вместе, создавая иллюзию, причем частота для этого большая не нужна — примерно от 16 кадров в секунду.
Выше приводили ссылки, где двигаются картинки по экрану, хорошая иллюзия движения появляется только тогда, когда смещение картинки за один кадр становится меньше пары пикселей.

И для больших скоростей движения объекта — нужна высокая частота обновления экрана. Иначе вместо иллюзии движения получаем либо сильно размытый объект, либо кучку «привидений»

При этом на страничке с курсорами — если выбрать скорость 1980 пикс. в сек. — 75 Гц моего монитора недостаточно чтобы создать качественную иллюзию движения
Выше приводили ссылки, где двигаются картинки по экрану, хорошая иллюзия движения появляется только тогда, когда смещение картинки за один кадр становится меньше пары пикселей.

Если речь идет о курсоре на разной частоте, то при его движении теряется гораздо больше половины его реальных положений. В случае совсем низкой частоты курсор вообще виден всего несколько раз за время пересечения экрана. Какие тут пикселы…
И для больших скоростей движения объекта — нужна высокая частота обновления экрана. Иначе вместо иллюзии движения получаем либо сильно размытый объект, либо кучку «привидений»

И так будет происходить всегда, пока частота обновления положения мыши не совпадет с частотой обновления кадра. Т.е. нужно порядка 500+ ФПС для средней мыши чтобы видеть курсор в любом его положении.

Есть тестовая страничка с марсианином

А в играх сколько FPS?

Сама статья фактически посвящена ситуации с эппловской техникой, а для нее игры второстепенны.

Интересно, у меня есть айпад на 120 герц и остальная техника на 60 — разницы не вижу. Может нужно положить два девайса рядом и скроллить параллельно, но в обычном использовании 120 Гц оценить не получается.


Чего не скажешь о плотности пикселей — шрифты на ретина-like экранах реально намного приятнее смотрятся. Теперь по возможности использую только дисплеи высокого разрешения.

Возможно, мозг привыкает к тому, что на айпаде выглядит плавнее, чем на других и автоматически ожидает другой вид и потому разницы не замечает. Я, когда на телефоне переключаю с 60 на 120, то разницу сразу видно. Через некоторое время уже ничего особенного.
UFO just landed and posted this here

Я когда проверял на своей прошке ufotest показывало 60fps. Есть подозрение что на айпаде сафари все еще работает максимум с 60гц. Почти уверен что так и есть.

Хм, возможно. Так где же на айпаде можно увидеть 120 фпс в действии? Скроллинг рабочих столов и игры не предлагать).

Любой скролл, в том числе страниц в браузере, все анимации, работа со стилусом.
В целом система обладает меньшим Input Lag, что для меня очень заметно.

Сейчас включил принудительно 60фпс и сразу после переключения разницу при скролле рабочих столов или сворачивании/разворачивании приложений видно. Но это на контрасте. Стоит немного попользоваться и уже не заметно. При скролле в браузере даже этой разницы не заметил.

О, я даже не знал, что оно настраивается, только с телефоном и ноутом мог сравнить ощущения.
Сейчас вот включил этот Limit Frame Rate, ну это же чудовищно!
Все анимации, скролл, перестали быть плавными. Воспринимается не как единое движение, а как подёргивания, почти как слайдшоу. Как будто iPad сломался или очень тормозит.
Ну и писать от руки с помощью Pencil у меня в таком режиме не получается: из-за отставания следа всё время ощущение непропечатавшихся чернил, как от плохо пишущей шариковой ручки.

Такое впечатление, что становится хуже, чем в обычных айпадах, где максимум 60фпс.

У меня сейчас нет обычного айпада чтобы проверить, но, возможно, там просчитываются все анимации для 120 Гц, а потом каждый второй кадр выбрасывается и заменяется предыдущим.
Ну или просто я так привык видеть 120 Гц именно на этом устройстве.

Это прямо как дорогой и дешёвый чай)

Самое неприятное – что появляется монитор, потом нужен стол другой, кресло, а потом теряется возможность работать где угодно с ноутбука.
Нафиг такое, если в итоге производительность падает
А куда она теряется?

Глаза отказываются напрягаться, чтобы распознавать мелкие буквы и/или строки всего по 20 символов

На ломку устоявшихся шаблонов, и на вспоминание, а как же, блин, работать иначе — без привычного окружения.
У меня например, эта боль при переходе с двух мониторов и полноразмерной клавиатуры, на один монитор ноута, и его куцую клавиатуру.
UFO just landed and posted this here
А потом практически случайно заглянул в старый FullHD монитор.
И тут я все понял :)

Не знаю, я однажды сменил 27" 4К на 32" 2К, и тут я понял, что счастье разработчика отнюдь не в буквах повышенной чёткости.
UFO just landed and posted this here
у меня 3k 14" ноут и fullhd 2х24".
Нормально перехожу туда сюда, без особого дискомфорта
Теперь может возникнуть соблазн использовать, например, масштабирование 1,5×. Это даст вам эквивалент 2560×1440 логических пикселей, что, как вы можете подумать, намного лучше. Это неправильное использование! Идея монитора 4k заключается не в том, чтобы получить больше пикселей, а в том, чтобы получить идеальный пиксельный рендеринг с высокой плотностью пользовательского интерфейса.

Идея 4K монитора заключается в получении 4K пикселей на экране. И не надо придумывать лишнего.
Потому как FullHD на 27" очень крупно, а информации помещается как на томже 21"
А вот 2560×1440 смотрятся на 27 ИМХО идеально, а рабочего пространства становится больше, особенно учитывая как сейчас любят отъедать пространство по вертикали. Сам так уже 4 года работаю и счастлив.
А на что реально стоит обратить внимание, это на настройку якрости/контрасности потому как из магазина мониторы обычно настроны на то чтобы выжигать сечатку, а не чтобы за ними было удобно работать.
Идея 4K монитора заключается в получении 4K пикселей на экране. И не надо придумывать лишнего.
Вопрос в том, для чего используются эти 4К пикселей.
Кому для чего надо, тот для того и использует. Кому то надо шрифты гладкие, кому то больше места под интерфейс программ.
я чёто не понял почему 200+ dpi обозвали ретиной? Или только яблоки могУть? Вон обычные IPS экраны 2560×1440 ставили в нубуки и Асусы и Делы, на 13 дюймах будет 220 точек. И да, после такого экрана все что меньше уже с трудом. Доходит до смешного, открываешь обзор нового ноутбука или монитора, сначала смотришь разрешение матрицы, если fhd, сразу закрываешь
Слово «ретина» в экранах стала аналогом слова «ксерокс».
FHD для 14" экрана (а таких ноутбуков много), по-моему, дико неудобное разрешение. Линия толщиной в один пиксель получается слишком тонкой и неприятной для глаз, а в два пикселя, наоборот, слишком толстой. Глядя на текст, нарисованный толщиной в один пиксель, постоянно чувствую, что ломаю глаза. Популярное раньше для 14" экранов разрешение 1024x768 было гораздо комфортнее.
Название Retina (=сетчатка) подразумевало что размер пикселя соответствует разрешению человеческого глаза при типичной дистанции до устройства (330 dpi для 30 см до телефона, 220 dpi для 40 см до ноутбука).
UFO just landed and posted this here

Прочитал бы пост месяц назад, наверное купил бы 4к

UFO just landed and posted this here
не помню как там на маке, но на винде и на андроиде если увеличивать системны шрифт не изменяя интерфейс, то половина приложений просто развалится.
Вас в 2005 году заморозили?
Давно уже ничего в венде особо не разваливается. Насчёт андроида не скажу, благо никогда не было необходимости зумить на нём.
Ну в моём 2005 и на айфонах если менять размер ТОЛЬКО шрифта, а не всего интерфейса многое разваливается. Правда это не 2005, а скорее 2015, как сейчас у айфонов с этим дела я не знаю, поэтому про них не писал.

Разваливается на кейсах типа два монитора с разными разрешениями и dpi, один из которых отмасштабирован так, чтобы буквы плюс-минус одинаковые угловые размеры имели на разных расстояниях.

чтоб не быть голословным, проиллюстрирую и вам и JustDont
Выставил размер шрифта в системе на 200%:
Заголовок в Параметрах разползся
В скриншотилке глифы заехали на иконки, иконки сохранили свой размер.
Paint.Net неплохо переварил, но вот в истории текст остался маленьким
В ворде (пусть и 2013) кнопки слиплись.
Клиент телеграма вообще срать хотел на системные настройки.


Иллюстрирую виндой, но на большинстве других платформ будет то же самое. Сломать поддержку системного масштабирования шрифта очень легко (просто выставляешь константы), тестированием на разных масштабах шрифта занимаются лишь те, у кого приложение заточено на людей с плохим зрением.
UFO just landed and posted this here
1) Не знаю, выводилось ли это сообщение для размера шрифта, но на 2004 оно даже для масштаба интерфейса больше не выводится. Пару релизов назад они поправили что-то в этом месте и теперь не так необходимо делать переологин перезапуска приложений должно быть достаточно
2) Перелогинился, всё, что изменилось, в истории Paint.Net текст стал крупнее (что забавно, учитывая что приложение работает на современном стеке, который поддерживает динамическое DPI). Все остальные проблемы остались на месте, потому что те же параметры полностью поддерживают динамическую смену DPI, тем и других системных параметров.
На самом деле вы правы. Чем больше приложений, тем больше бардак с этим масштабированием.

И у вас ещё винда более-менее свежая, судя по всему. В семёрке вообще ад и израиль.
У меня просто почти нет приложений, которые бы работали не на виндовом GUI (кроме вот телеграма).
Не рассматривал. Для контента это действительно все равно (включил масштабирование @2x, уменьшил шрифт в 2 раза), но я хочу чтобы надписи на кнопках и прочее тоже комфортно читались
А может быть кто-то знает как в QtCreator'е под Windows настроить нормальный рендеринг шрифтов на 4к мониторе? Хоть включай, хоть выключай сглаживание, шрифты очень грубые.
судя по клиенту телеграмма — это не единственная проблема Qt относительно dpi. Может конечно в телеграмме не умеют его готовить, но если у тебя несколько мониторов с разным dpi и разным масштабированием на них — телега показывает окно только в каком-то одном масштабе.
Блин, неправильно прочитал, речь же про саму среду, а она не на Qt написана
UFO just landed and posted this here
Меня смутил комментарий про NetBeans ниже. Теперь я окончательно запутался.
Им и пользуюсь, но он немного подтормаживает при коннекте почему-то. Плюс ссылки
Это похоже на проблему NetBeans под Linux, надо было зализать в файл настроек JDK и менять параметры, уже деталей не помню давно было дело.
UFO just landed and posted this here
> ClearType начнёт работать на тексте в 3D

Не начнет, пока даже теоретически непонятно, как это могло бы работать. Тенденция скорее просто gray antialiasing, а в 3d — distance fields
UFO just landed and posted this here
Это означает, что если у вас есть монитор 4k (3840×2160) и вы используете масштабирование 2×, вы получите эквивалент 1920×1080 логических пикселей
Если у нас есть монитор 4к, то мы будем использовать там 3840х2160, а не 1920х1080, потому что в современном мире в 1920х1080 тупо ничего не влезает. Ну ладно, влезает, но неудобно.
Так что никаких масштабирований и сглаживания шрифтов и ретины. С мониторными разрешениями и размерами этому просто неоткуда взяться.

в среднем расстояние между моими глазами и экраном составляет 33 см с ноутбуком, но 68 см с монитором. Это двукратная разница!
33 см? Привет близорукость, без вариантов вообще. 60см должна быть минималка.

Для себя идеалом обнаружили 2560х1440х32", т.к. при таких характеристиках можно сесть достаточно далеко и видеть все достаточно спокойно. Для 4к пробовали 55" телевизор, вроде удобно, но привыкнуть не удалось.

p.s.: И то что наиболее неприятно — найти ноут имеющий интерфейс позволяющий хотя бы 4к в 120гц достаточно тяжело. Внезапно, даже на относительно свежих ноутах, hdmi даже 4к в 60гц не всегда тянет. У автора об этом мельком сказано, но он смотрит на эти вещи достаточно оптимистично. Наш основной ноут 2560х1440х60гц держит максимум, в 4к уже 30гц приходится выставлять, хотя он свежий, 2018 года.
в современном мире в 1920х1080 тупо ничего не влезает

а какой веб-сайт сейчас шире, чем 1900 пикселей? Или вы имели в виду не сайты, а приложения?


hdmi даже 4к в 60гц не всегда тянет

интересно. Не тянет по причине слабой видеоподсистемы или по причине отсутствия дисплейпорта (4к в 60гц поддерживается hdmi 2.0 и dp 1.2, но много где в ноуты почему-то до сих пор ставят hdmi 1.4, а вот если есть dp — то скорее всего он будет не ниже 1.2).

а какой веб-сайт сейчас шире, чем 1900 пикселей? Или вы имели в виду не сайты, а приложения?
Имели ввиду в целом. У нас браузер обычно раскрыт на где-то 2/3 экрана, рядом еще браузер, рядом мессенджеры.
Если речь идет об экселях, фотошопах и средах разработки — там со всеми нужными панелями и 4к-то не всегда хватает:)

интересно. Не тянет по причине слабой видеоподсистемы или по причине отсутствия дисплейпорта (4к в 60гц поддерживается hdmi 2.0 и dp 1.2, но много где в ноуты почему-то до сих пор ставят hdmi 1.4, а вот если есть dp — то скорее всего он будет не ниже 1.2).
Видеоподсистема сейчас 4к*60гц у всех тянет, даже если это встройка. Так что тут проблем нет.
Проблема с выходами. На ноуте формально! hdmi 2.0b, но распайка порта (мы честно говоря без понятия что за фигня, цитируем ответ саппорта) сделана для hdmi 1.4. Прикольно, что при этом заводится 2560х1440х59 герц (если прописать их вручную в дровах), хотя 60гц уже не работает.
DisplayPort всё еще ставят не на все ноуты, на интересных нам моделях его нет даже в 2020 году:( При этом самое грустно, что DisplayPort нет на телевизорах. У нас, например, куплен 4к телек специально вместо монитора использовать — приходится юзать в 30гц на hdmi — боль и печаль.
Ноуты в этом смысле вообще как-то фигово расчитаны на подключение внешнего монитора, видимо подразумевается что раз купил что-то мелкое, то мучайся:)
Имели ввиду в целом. У нас браузер обычно раскрыт на где-то 2/3 экрана, рядом еще браузер, рядом мессенджеры.

понял. Ну это другой вопрос на самом деле — если нужно больше пространства, нужно брать монитор 28-32". Если на 24-25" сделать 2560х1440, то все будет очень мелкое.
А если брать 28-32", то для ретины надо разрешение 5К-6К.


На ноуте формально! hdmi 2.0b, но распайка порта (мы честно говоря без понятия что за фигня, цитируем ответ саппорта) сделана для hdmi 1.4

да уж, бред какой-то. Производитель конкретно налажал.


DisplayPort всё еще ставят не на все ноуты, на интересных нам моделях его нет даже в 2020 году

обычно на новых моделях бизнес и про сегментов есть или DisplayPort или usb-c c dp alter mode. Но если в нужных вам моделях не так — это грустно.

DP слишком заточен под большой поток данных и сам по себе очень ограничен длиной и банально даже сгибаемостью.
А hdmi — народный формат для телевизоров и тд. Вопрос в том почему он так сильно отстает от DP.

UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
(одна защёлка чего стоит!)
Множества раскуроченных разъёмов она стоит. Нигде больше защёлка не используется (ну, на RJ45/RJ11, разве что), так что люди, обычно, не знают о ней и просто тянут за штекер посильнее.
UFO just landed and posted this here
естественным образом нажимается при аккуратном извлечении
Но практически любом ноутбуке она оказывается со стороны стола. Штекер в таком положении, обычно, тянут за бока, а защёлка внизу.
UFO just landed and posted this here
На бизнес-ноутбуках типа ThinkPad'ов встречал немало.
Монитор 4k имеет смысл только при масштабировании 2× / 200%.

В зависимости от целей и задач это как раз может не иметь смысла, потому что по количеству информации эквивалентен FHD, разве что единственная цель — это избавиться от заметной пикселизации.


Например, мне было мало стандартного FHD, к тому же у него на любом мониторе адекватного размера (даже 24", не говоря уже про больше) сильно заметны пиксели, площади кот наплакал, и после покупки недорогого 4K 32" всё кардинально поменялось — места вайлом, можно одновременно открыть и наблюдать много всего, пиксели почти незаметны (нужно оооочень сильно присматриваться). Всё же видеть 100 строчек текста одновременно гораздо лучше чем 50, при почти неизменном размере шрифта.


Правда, есть и негатив — теперь всё что имеет меньше чем 120 dpi вызывает стойкое неприятие.

А у вас какое масштабирование выставлено?

Никакое — на всех мониторах только 100% и нативное разрешение, я хочу быть уверен что один пиксель в приложении — это один пиксель на экране. При любом масштабировании отличном от 100% тексты ощутимо мылятся (разве что монитор маленький а разрешение высокое, но с ними очень неудобно и места мало, кроме телефонов и планшетов).


Но это, наверное, мои личные проблемы — многим людям это "мыло" как раз нравится, а я предпочитаю чёткий текст с ровными, несглаженными линиями, к тому же, при любом масштабировании теряется полезная площать.


На 4k без масштабирования площадь эквивалентна 4 FHD (в чём и суть), пусть и мелкий текст (хотя не мельче чем на телефоне), при масштабировании эта возможность исчезнет.


Я бы сказал, универсальные советы в этом случае давать бессмысленно — потому что зрение и восприятие очень индивидуальны.

Вы наверное довольно близко сидите к монитору или у вас очень хорошее зрение. У меня на 4k 32" комфорт начинается с масштабирования 130-135%. Хотя так информации ощутимо меньше влезает, к сожалению, может таким как я стоит присмотреться к 4k и 40-43"

Да, довольно близко — около 40-50 см. Зрение у меня как раз не очень, но это расстояние позволяет не напрягаться при чтении мелких текстов без очков для чтения — как и в случае со смартфонами/планшетами и прочими мелкими экранами (хотя там уже нужно около 30 см для комфорта).


У людей с нормальным зрением мелкие тексты вызывают проблемы и на смартфонах (в то время как я даже там ставлю минимальный размер шрифтов), так что, как я уже заметил, всё это очень индивидуально.

UFO just landed and posted this here
При любом масштабировании отличном от 100% тексты ощутимо мылятся

Это при нативном разрешении монитора? А уточните, какая у вас ОС?

Да, при нативном — я только его использую. ОС — Windows 10.


В Linux (xubuntu) такой проблемы нет, но там я ставлю dpi, а не scaling factor.

Поставив домой 49 дюймовый Dell, правда, с 60 Гц, но временем отклика от 8 до 5 мс могу сказать, что это небо и земля со старыми мониторами

Тот момент, когда на Windows «это просто работает».
Тоже об этом подумалось при чтении. Я со своим монитором, едва-едва перелезающим 90dpi, уже 9 лет как просто спокойно читаю и не парюсь. Да, когда-нибудь куплю монитор получше — очень сильно мешает то, что на 16:10 производители забили, а он меня устраивает в разы больше, чем 16:9. Но это явно не приоритет и не та проблема, которую стоит прямо заливать деньгами. Просто ClearType таки работает.
Что вы :) Это о том, что на Win нет «ритуала 120гц». По DP кабелю оно просто работает из коробки (HDMI тоже, но там у меня только 120гц, вместо 144) и не требует вообще никаких телодвижений.
А так любимый 27" 1920 144Hz вообще 81 PPI. Я не игроман, но за частоту и плавность всеми руками ЗА.
На самом деле у нас нет особого выбора. Из того, что я могу найти, прямо сейчас на рынке есть только четыре (да, четыре!) дисплея 4k 120+ Гц!
Я как-то не так смотрю?
Скриншот Яндекс.Маркета

Я как-то не так смотрю?

Да, дважды не так при чем
1) Вы смотрите все разрешения со стороной 3840, но классический 4к это все же 3840х2160, если говорить о мониторах. Так-то есть разные варианты трактовок, но 3840х1080 (какие у Вас включены) в них всё равно не входят
2) Вы смотрите макс. частоту кадров, а не макс. частоту кадров в макс. разрешении. Монитор 3840х2160 нередко выдает 120гц в фуллхд, но в 4к выдает только 60гц, например. Надо выставлять другой параметр.

Вот более правильная ссылка
market.yandex.ru/catalog--monitory/54539/list?hid=91052&glfilter=4913586%3A12103921&glfilter=16811073%3A120~&onstock=1&local-offers-first=0&how=aprice

p.s.: Daddy_Cool 16:9 может быть достаточно удобно, если этих 9 достаточно. 2560х1440 нам оказалось удобный разрешением, т.к. и по вертикали не урезались и по горизонтали как раз на пару панелек стало хватать «лишних».
Понятно, спасибо за разъяснение.
У меня другая печаль. Мне почему-то нравится формат 16:10. У меня Dell 2412 — это 24" 1920x1200. Очень удобно. Переход на 27" 16:9… даст небольшую добавку по горизонтали и всё, а 27" 16:10 4k кажется не существует. А 30" уже перебор… хотя может это так сейчас кажется. Но даже если 30" — то 60 Гц и всё.

Chamie
Если оставить только 27" 16:9, то останется шесть штук. Видимо автор не рассматривает экзотику.
Аналогично. На 16:9 даже не смотрю. Дома стоит Dell U2415, на работе какой-то Eizo.
К сожалению в продаже формат 16:10 с высоким разрешением есть только Dell P2421, да и тот 2560x1440. И появился он только неделю назад.

PS. Для спасения вертикального пространтства на виндовс помогает перемещение панели к левому краю (вертикально). Даже на 16:10.
Блин, все вранье. На сайте делла написано, что Р2410 — 1920х1200. Агрегатор обманул.
И не очень хорошие для такой цены отзывы о матрице (кристаллический эффект и пр).
Я и сам предпочел бы формат 16:10, но всему есть предел: тратить на один 30"@2k столько денег, что можно купить 2x27"@4k или 2x32"@2k — это нонсенс.
Такое ощущение, что они его держат для тех редких фанатов, которые увидят заветные циферки 16:10 и при звуках флейты потеряют волю.
Снизили бы цену хотя бы раза в полтора — можно было бы брать.

Так он не особо новый, 2016 год. Думаю, там специально оставили размер пикселя приблизительно такой же, как в 1920х1200 24"

Да это понятно, что не очень новый.
Вопрос в том, почему за него хотят денег, как будто это современная топ-модель.
Примерно за это: 99% Adobe RGB color gamut, 99% sRGB color gamut, Flicker Free technology, daisy chain compatible
Да, про гамут я забыл.
Хотя всё равно цена вызывает вопросы — 27"@4k можно купить дешевле, а 32"@4k ненамного (по меркам этого сегмента) дороже. Разумеется, в обоих случаях речь про модели с wide gamut, калибровкой и вот этим всем.
Достаточно посмотреть на цены 1920*1080 и 1920*1200, чтобы понять, что маркетологи решили, что 16:10 — удел немногих. Вероятно, чтобы снизить издержки — ведь чем дальше от квадрата, тем меньше площадь при той же диагонали. А дальше сработала обратная связь: меньше ассортимент и массовость — больше цена. Больше цена — меньше берут и еще меньше моделей выпускают.
Но вот один из немногих пунктов, за что я могу похвалить эппл — это за то, что они не дают совсем убить это соотношение сторон. И даже dell xps теперь есть с нормальным соотношением сторон, и даже размером экрана. Правда ценник пока конский, но дальше хуавэй подтянется и прочие хп с леново.
Да, всё именно так. А редкие доступные модели держат отчасти по инерции, а отчасти в расчете на фаната, который ради своего фетиша «за ценой не постоит».

Хотя, кажется, у Dell есть ноутбуки с экраном 16:10 и разрешением условно 4к.
на виндовс с сожалению нельзя ужать панель в узкую полоску
У меня тоже был U2412M. Проблема в том, что сейчас на него без слез не взглянешь.
А на что рекомендуете перейти — с целью экономии носовых платков?
То что рекомендует автор или можно отделаться более экономичными вариантами?
Не все рассуждения автора мне близки. Мне кажется, что лучше иметь 27 дюймов и 1440р в родном разрешении, чем масштабировать 4к на х2.
Из недорого и хорошего есть BenQ PD2700Q, например.
Мне кажется, что лучше иметь 27 дюймов и 1440р в родном разрешении, чем масштабировать 4к на х2

У автора мак, у него и варинтов особо нет. Там, насколько я понимаю, нельзя отмасштабировать только элементы интерфейса, оставив общее разрешение нетронутым.

можно, но только в 2 раза

и картинки в условном фотошопе тоже останутся пиксель-в-пиксель, а не увеличатся в 2 раза вместе со всем остальным?

UFO just landed and posted this here

С виндой понятно, но из статьи я сделал вывод, что масштабирование в MacOS работает иначе.

Больше 60ГЦ нужно далеко не всем. Переплачивать едва ли не стоимость еще одного 4К 60ГЦ монитора за то, чтобы «скролл был плавным», ну…
UFO just landed and posted this here
Очень низкое разрешение для такой диагонали, всего 94 PPI.
Ничего не помещается на экране, элементы интерфейса очень большие.
UFO just landed and posted this here
UFO just landed and posted this here

Читал ещё в оригинале и не смог разделить это невероятное внимание к пикселизации буковок.
А срач про "обязательно отключите ClearType" существует уже очень давно, когда ЖК-мониторы пошли в массы, то говорили что сглаживание для ЭЛТ, там пиксели не такие четкие, а может и ещё раньше появилось.

сглаживание для ЭЛТ, там пиксели не такие четкие
Сглаживание и так нечётких пикселей? Нет, сглаживание — для ЖК, в ЭЛТ они сами сглаживаются.

Но так говорили в первой половине нулевых: выключи сглаживание, это же чёртово мыло.

Так говорили потому, что весь интернет был набран несколькими стандартными шрифтами. В основном из коллекции Microsoft core fonts, которые изначально были оптимизированны под мелкие кегли на экранах низкого разрешения и маниакально отхинтованы. Verdana великолепно работает без сглаживания даже в размерах порядка 10px. Но с «обычными» шрифтами такое не прокатывает.
Так тогда на ЖК-мониторах и пикселы были «с кулак», и сглаживание, соответственно, таких же размеров. И шрифты стандартные под пикселы были подогнаны, да, правильно выше пишет dom1n1k
Почему-то каждый раз когда говорят «переезжай на high dpi экран под виндой» забывают что на винде масштабирование работает максимально отвратительно, а сидеть на маленьком дисплее с 4k разрешением и 100% масштабированием — то еще удовольствие.

А что именно работает на винде не так? По моему опыту — софта, который плохо масштабируется, на сегодняшний день очень мало осталось.

Рабочий стол в 10-ке в неродном разрешении (масштаб не 100%) очень сильно мутнеет от фильтрации при ресемплинге.

Так неродное разрешение монитора или масштаб не 100%? Это как бы разные вещи.

Неразрешимых проблем нет, но куча всего работает плохо/не так хорошо как на родном разрешение. На работе выдали ноут 4К, это боль, уже несколько раз приходилось гуглить, ставить какие-то правки в реестре. При этом визульно отличия от ноута с хорошим FullHD экраном я не увидел.
В основном глючат старые программы, подключения по RDP к старым Windows и подобное. Для домашнего использования как я понимаю еще будут и игры, которые будут требовать более мощной видеокарты
Т.е. на мой взгляд брать нужно родное разрешение, которое будут работать без масштабирования, для 27 — это 2К, для 30+ дюймов — 4К
В основном глючат старые программы

ну да, старые программы не умеют правильно масштабироваться, а автоматическое масштабирование, которое применяет Windows, делает изображение размытым. Но если брать новый софт (последние 3 года и новее), то там все ок обычно.

UFO just landed and posted this here
Официальный клиент телеграма. Если у тебя несколько моников с разным масштабированием — пиши пропало.
Да и сама винда иногда может чудить, если на одном монике у тебя 200%, а на другом 100%
У меня такая конфигурация уже года три, один монитор — 200%, второй — 150%. Никаких проблем нет, кроме одной очевидной — нельзя размещать окно сразу на двух мониторах, процент берется с того, на котором находится большая часть окна, и на втором выглядит нелепо.
Я еще какую-то проблему упускаю?
За все время столкнулся только с отвратительным масштабированием древнего софта времен чуть ли не XP, и даже оно нормально масштабируется через настройки совместимости.
Я еще какую-то проблему упускаю?
иногда нотификации или попапы таскбара рисуются не того масштаба. Сам таскбар иногда рисуется не того размера. На разнице масштабов у 200% и 150% этого не заметно. На разнице 100% и 200% — заметно.
Посмотрю, как до дома доберусь, даже интересно, что с ними не так, и как они на самом деле должны выглядеть.
Вот, нашел старый скрин:


Кажется проблема воспроизводится в таком ключе: подключаю ноут к докстанции, Основной монитор переключается с ноута на внешний (мне так удобнее), часть системных всплывашек продолжают использовать старый масштаб.
Так это проблема скорее горячего подключения, нежели масштабирования. У меня мониторы подключены всегда, и всегда это окно поиска выглядит нормально.
ну, тут всё вместе. :) Половина проблем с hdpi в винде — проблемы горячего подключения/переключения. Телеграм, не умеющий подстраивать свой кастомный масштаб под текущий монитор, какие-то системные параметры, которые не обновлялись без перелогина, приложения кеширующие системные константы ¯\_(ツ)_/¯
Вот так и получается, что проблемы у винды — с динамическим изменением масштабирования, во время работы, что само по себе несколько специфично. Я масштабирование задал один раз при установке винды, с тех пор ничего не трогал, поэтому и проблем особо не видел.
Отсюда и недопонимание.
Если у тебя несколько моников с разным масштабированием — пиши пропало

да, у винды есть проблемы в этом плане до сих пор. Я бы не сказал, что они системные, скорее глюки. Как решение — использовать мониторы с одинаковым масштабированием. Но будем надеяться, что когда-то винда пофиксит это.

Это конкретно проблема телеги была. Если разница в мастабах небольшая, то проблем почти нет.
А что, кстати, должно при этом происходить, когда ты, например, окно переносишь с одного монитора на другой? В смысле, когда часть окна на одном мониторе, а часть — на другом. Пол-окна отрисовывается с одним DPI, а пол — с другим?
Чуть выше я ответил, как раз этому посту:
Никаких проблем нет, кроме одной очевидной — нельзя размещать окно сразу на двух мониторах, процент берется с того, на котором находится большая часть окна, и на втором выглядит нелепо.

То есть нет. На каком мониторе «окна больше», с такого DPI и берется.
на маке просто пол окна не показывается при размещении окна между двумя мониторами вне зависимости от DPI.
На винде рисуется в том DPI в котором большая часть окна находится. Сложно это показать на скриншоте, но вот элементы одинаковой высоты зелёным подсветил:
Плохо работает масштабирование 125%. 150 уже приемлемо, 200 — великолепно.
О чем автор и пишет — нужно стремиться к целочисленному масштабированию.
Привет, я ретроград. 1280х1024 на квадратном 19'' экране. Всё просто идеально. Всё влезает. Лучший режим на свете!
На 4К и Retina смотреть практически не могу — всё контролы интерфейса настолько МЕЛКИЕ, что никакого разрешения самой лучшей лазерной мыши не хватает в них тыкать.
Скриншот рабочего процесса:
image

Полноразмерный скрин

ппц мэйлрушные боты спамят!

Солидарен, правда квадратные экраны поменял на ультраширокие, поделенные пополам или на три. Первое время на макбуке ретина казалась огого, но потом заметил, что от неё через пару часов вытекают глаза. Может в каком-то из обновлений после маверикса что-то сломали.


Под обычные мониторы и шрифты легче подобрать — keyrus где надо покрупнее, или MS Mincho 10px, чтобы влезло побольше.

UFO just landed and posted this here
На 4К и Retina смотреть практически не могу — всё контролы интерфейса настолько МЕЛКИЕ, что никакого разрешения самой лучшей лазерной мыши не хватает в них тыкать.

ну так в статье и не предлагают использовать 4К в 100% масштабе. Выставляете удобный масштаб и будете все видеть, везде попадать, только шрифты, иконки, кнопки будут более чёткими.

ЗЫ. Лично мне больно смотреть на ваш скрин.
Относительно недавно выменял монитор 17" 1280х1024 для ретро-игр, подключил, и словил себя на мысли, что и правда места хватает. Потом уже вспомнил, что при переходе на 1920х1080 места прибавилось, много, но не так уж и умопомрачительно.
Потому что на самом деле для программирования важно почти исключительно вертикальное разрешение… а 1024 против 1080 — это всего 5% разницы… человек же устройчиво замечает 8%.
Если это некое правило, то это просто блестящее его применение.
Это называется JND (по русски порог различения), а вот статью где его к размерам и весу применяют я сходу найи не могу.
Действительно, очень обидно наблюдать, как эти прекрасные мелкие детали сжимаются всего лишь в 7×10 пикселей.
Ну да, мне, программисту, очень обидно за прекрасные детали в буковках. Я же за комп сажусь, чтобы на букву «g» полюбоваться.
Да, именно так. Реально — после хорошего качества глаза «взрываются», когда работаешь 4-6 часов на гов… не очень хорошем качестве.
Выбор хорошего инструмента — плохо?

Навязывать субъективно хорошие инструменты как норму — плохо. :) Вот месяц радовался новому монитору 27" 2560х1440 — куча информации помещается. А теперь, оказывается, мне пора его менять.

27" и 2560x1440 — это какой?
А, это 16:9, не пойдет. Мне тут один аггрегатор выдал, что 2560x1440 это 16:10 (я поленился пересчитать), поэтому я запутался.
А тот монитор из аггрегатора вообще оказался 1920х1200.
Хорошего для чего именно? Лично мне в статье не хватило объяснения, в какой именно плоскости лежат преимущества 4K мониторов. Если речь только об эстетике шрифтов, это один разговор. Если на более низких dpi глаза больше устают, неплохо бы ссылки на какие-нибудь исследования по теме. Опять же, окулисты говорят, что чтобы глаза не уставали, нужно делать перерывы, а не сидеть пор десять часов подряд, причем это относится даже к чтению бумажных книг, у которых еще выше dpi.

Вот есть специальные шрифты для дислексиков, которые выглядят так, что дизайнер шрифтов схватится за голову. А читать помогают (дислексикам). Так что мне не очевидно, что, делая шрифты более четкими, мы облегчаем восприятие текста.
Как хорошо, что на хабре ещё остались адекваты…
Наше зрение — образное. Грубо говоря, мозгу пофигу есть ли там ступеньки на буквах или нет, после зрительной коры вы слово то воспринимаете как символ, не то что букву.
Этому образному зрению всё равно надо за что-то зацепиться. Чем больше информации будет попадать на первый слой нейросети (сетчатку) тем проще будет различать образы.
А вот не факт. К тому же с возрастом включается автоматическое сглаживание(острота зрения падает).
Ну давайте выкинем все исследования шрифтов за последние тысячу лет (или больше). Пока люди придумывали различные выносные элементы для букв, все шрифтовики пытаются сделать так чтоб буквы отличались между собой, типографы стараются не злоупотреблять капителью… Детали не нужны.

С возрастом и читать труднее становится.
Тут рядом где-то не так давно публиковалось любительское исследование, в котором человек хотел найти подтверждение преимущества шрифтов с засечками перед гротесками. И знаете что? Там не нашлось исследований, которые бы однозначно эти преимущества выявляли. Посему и ваше утверждение весьма спорное.
Моё утверждение хорошо подтверждается одним примером: Il
Да мозг может отличить И и Л даже просто по ширине штриха, но значительно проще это сделать, когда у этих букв есть и другие отличия.

Про засечки я ничего не говорил. При определённом количестве деталей нейросеть начинает отбрасывать лишние, перестаёт их учитывать. Но для каждой отдельной нейросети это будут свои детали. Так что для меня не очень удивительно, что результат в упомянутом вами исследовании получился неоднозначным. Почти уверен, что он использовал язык знакомый респондентам, так что изменение степени когнитивных усилий было попросту незаметно.
Моё утверждение хорошо подтверждается одним примером: Il
Интересно, считаются ли Verdana и Segoe UI гротесками?
Спасибо, так даже более наглядно: курсив добавил небольной изгиб буве L и читать стало сразу заметно легче. Можно ещё 0 с точкой вспомнить.
Переехал некоторое время назад на 24" 4k, и глаза много раз сказали спасибо. Заметил, что после долгого смотрения на 4k мне проще фокусироваться на предметах в реальном мире, чем после FullHD.

Также, провожу по работе много времени в ide. Разница в шрифтах действительно большая. Больше удовольствия от работы. Особенно, если заменить Courier New на что-то по-современнее вроде Liberation Mono :)

Т.е. в моём случае такое приобретение оправдалось и привносит позитив в жизнь. Хоть прожить, конечно, можно и без 4k.

Из минусов — действительно, есть софт, который ещё не адаптирован. Из того, что применяю, такого мало. В основном, встречаю в плагинах к музыкальному софту.

Использую для разработки 24" монитор в разрешении 1920x1200. По классификации автора это old school. После перехода с винды на убунту обнаружил, что убунту гораздо лучше отрисовывает шрифты малых размерностей
https://ibb.co/54LshxH
Windows 10 на малых размерностях делает буквы шире чем нужно. Но если использовать монитор с разрешением 125 dpi — все приходит в норму. Для себя сделал вывод, что майки опять хотят за счет смены оборудования решить свои проблемы с ПО.

UFO just landed and posted this here
7 лет назад покупал 27" Dell UltraSharp U2713H (210-AADU) за $750, работал практически каждый день… более 13-15 часов за компом, иногда лишь кнопкой экран выключал, чтобы ночью не светил (когда он стоял в спальной)…

и за все время пиксели целые, цветоотдача не изменилась, матрица в порядке, крепежи все четкие (3х осевой ориентир)… когда моник еще был в продаже, цена выросла овер 1к у.е…

сейчас, смотрю мониторы, думал дополнительный взять… то или аля-маркетинг, или цена дикая с гарантией 12мес… грустно как-то все это.
На мой взгляд, вся статья о том (рекламная?), как криво работает сглаживание… Везде. И это так. Из-за постоянно размытых букв сильно устают глаза. Поэтому выхода ровно два: или отключать, или заливать проблему пикселями.

Автор предлагает именно второй вариант, что очень удобно с точки зрения продаж.

И да, на винде сглаживание (оно же ClearType) отлично отключается (HKEY_CURRENT_USER\Control Panel\Desktop, FontSmoothing — удалить, FontSmoothingType = 1, перезагрузиться). Проверить можно зайдя на сайт озона до и после и убедиться, какой убогий шрифт выбран озоном (и все минусы всех остальных шрифтов моментально улетучатся). Это как раз тот пример, когда шрифт подогнан под обязательное сглаживание.
image

Я уже писал про размеры мониторов, а также про кривое масштабирование на больших разрешениях (за которые топит автор). Для примера — PuTTY (может у меня версия «старая»? но этот инструмент вроде как не требуется ежедневно обновлять):
image

И нет, окно не скроллится и не растягивается.

Собственно после написания статьи я себе купил 32" с разрешением 2560х1440 и HDR10 (вот эту тему искренне рекомендую, работа стала значительно приятнее).
UFO just landed and posted this here
Windows плохо работает с HDR. На самом деле, с ним все сейчас работает достаточно плохо, кроме ТВ и контрольных мониторов. Но и у этих не без проблем (в частности, недобор нит до стандарта и включение вместо этого сделанных на коленке стандартов типа HDR200, лишь бы нашлепку HDR влепить на коробку).
UFO just landed and posted this here
Ладно контрастность, пусть хоть ниты доберут, а не псевдостандарты клепают, с яркостью как у дешевого 1080P образца 2010-го.
Когда люди на продакшне делают кино\сериалы с контрольными мониторами, отвечающими стандартам, а консьюмеры смотрят это добро при ярком свете на своем ТВ с HDR аж 350, получается Игра Пристолов, сезон 8, серия 3. «Слишком темная картинка». Не картинка темная, а производитель ТВ псевдостандарты проталкивает как HDR-capable ТВ.
UFO just landed and posted this here
У ТВ с такой контрастностью сильно меньше требования по нитам, как у OLED. Другое дело LCD — вот там с 300 просто смерть. И контрастности не добавить.
Можете объяснить, чем большая яркость улучшает картинку?
У меня еще ни разу не было HDR-совместимого монитора, и я не могу понять, зачем нужно покупать существующие, если у них кроме яркости ничего особо и нету (если не брать сегмент $2000+).
В повседневной жизни я использую яркость порядка 100 нит, в лучшем случае 150, если комнату солнце сильно освещает. Более ярко — банально сложно смотреть. Понятно, что если прямо на монитор светит полуденное солнце, то тут чем больше, тем лучше, но не думаю, что смотреть фильмы предполагается под прямыми лучами солнца.
Желательные 12 бит на компоненту, контрастность 10000:1 и выше — это мне понятно, но желание сделать из монитора сварочный аппарат вызывает у меня недоумение.
UFO just landed and posted this here
У меня никогда не возникало желания посмотреть ни на полуденное солнце, ни на спираль лампочки. Если случайно прямой (или отраженный без рассеивания) луч от яркого источника света попадает на сетчатку, то я сразу пытаюсь прекратить это.
Кроме того, человеческий глаз отлично подстраивается к окружающей обстановке, и вам совсем необязательно иметь 100500 нит яркости, чтобы обеспечить ощущение того, что что-то очень яркое. Опять же, если все изображение имеет яркость 600+ нит, то ощущение того, что какой-то один предмет является очень ярким, у вас все равно не возникнет — из-за того же подстраивания зрения под общую яркость.
В результате мы снова возвращаемся к необходимости высокой контрастности: чтобы сделать ощущение, что на картинке находится яркое солнце, вы можете сделать среднюю яркость картинки 10 нит, а яркость солнца — 300 нит. Невероятная яркость для этого совсем не нужна.

Поэтому фраза «Ладно контрастность, пусть хоть ниты доберут» вызвала у меня вопросы.
Поэтому фраза «Ладно контрастность, пусть хоть ниты доберут» вызвала у меня вопросы.
Проблема в том, что на классических LCD нельзя накрутит нужную контрастность. Остается только яркость. Если нет ни того, ни другого, то это не HDR, что бы там не было написано на коробке.
Так если вы накрутите яркость, оставив все ту же посредственную контрастность, то лучше не станет. Я могу прямо сейчас поставить у себя яркость на мониторе на максимум, получив вместо моих ~100 нит порядка 400 нит, но кинематографичность от этого не увеличится ни на йоту, если относительная яркость объектов на экране останется той же.
Я про это и спрашиваю — в каких сценариях увеличение [только] общей яркости изображения дает профит?

UPD. Единственное, про что я могу подумать — в фильме происходит взрыв, и весь экран на долю секунды сильно засвечивается. Или половина экрана, если хотя бы какое-нибудь зонирование подсветки присутствует. Правда, не уверен, что для такого нужно большее тех же 300 нит, если в обычных сценах яркость не была выкручена слишком сильно.
Но это такой специфический и редкий случай, что я сомневаюсь, что его имеют в виду, когда говорят, что для HDR запредельная яркость необходима.

Это всё верно, если комната совершенно тёмная. Экран дисплея отражает около двух нит в хорошо освещенной комнате. В таких условиях картинка со средней яркостью 10 нит будет иметь среднюю контрастность 6:1.

Вы забываете, что ниты — это не только про белый цвет, это и про все цвета (RGB) в промежутке от 0.0.0 до 255.255.255 (классический SDR), или 0.0.0 до 1023.1023.1023. Фактически, когда все цвета уходят в 1023, получается чистый белый. Стандарт HDR (а точнее цветовой профиль Rec. 2020), устанавливает следующее:
F10-bits per sample Rec. 2020 uses video levels where the black level is defined as code 64 and the nominal peak is defined as code 940. Codes 0–3 and 1,020–1,023 are used for the timing reference. Codes 4 through 63 provide video data below the black level while codes 941 through 1,019 provide video data above the nominal peak.

Таким образом, если ваш монитор физически не способен в «940» nominal peak, то съезжает «в темноту» не только пиковая яркость, но также и нейтральный серый, и все цвета за ними. То есть картинка становится банально темнее, для любителей «как режиссер задумал» картинка тоже долетает, скажем так, «переосмысленной». Других цветовых профилей для HDR в ходу пока нет, поэтому можно конечно наплевать на 1000 нит и выбирать всякие VESA400, но цветовой профиль от этого не поменяется, и цвета со светами будут выглядеть иначе, нежели на нормальном HDR. И дело тут далеко не только в солнце, лампах и прочем, не забывайте: яркость влияет на все, кроме чистого черного.
Более того, если цветовой профиль, который в будущем может\должен будет заменить 2020 (Rec. 2100), и там никаких послаблений для «псевдо-HDR» нет:
For full range color, 10-bit levels are 0 for the black level, 512 for the grey level and 1023 for the nominal peak, and 12-bit levels are 0, 2048 and 4092 (values 4093-4095 are avoided to exclude clipping errors on 10-bit ADC/DAC circuits which have 1023 steps).

Дополню цитатой с rtings.com:
Finally, we take a look at dynamic range. This is where HDR TVs will show the biggest difference. HDR content makes use of their higher brightness capabilities to show lifelike highlights. When a TV has a limited dynamic range, it can only display highlights while crushing the dark elements and vice versa. A TV with higher dynamic range is capable of displaying more of both at the same time.

Я понял вашу идею про «как режиссер задумал», и не хочу с ней спорить, однако я не могу понять, как процитированный вами формат кодирования связан с яркостью. Ну, написано, что число 940=0b1110101100 обозначает некоторый уровень яркости, который обозначает некоторый стандартный белый цвет. Это ничего не говорит о яркости, которую должен иметь пиксель с этим цветом. По ссылке на википедию, которую вы дали, про яркость ничего не написано. И быстрый запрос в гугл мне про связь яркости с Rec. 2020 ничего не рассказал.
Я надеюсь, вы не имели в виду, что число 940 должно соответствовать 940 нит яркости.
Хочу заметить, что даже в процитированном вами же отрывке написано про некий «nominal peak», а не про точное значение яркости. Смею предположить, что эта статься на википедии не имеет никаких предубеждений по поводу «ровно 1000 нит, не больше и не меньше» и считает, что «nominal peak» может быть разный, причем зависеть он будет не только от устройства, но и от настроек пользователя. В том числе, наверное, потому, что в условиях, когда на телевизор не падают прямые лучи солнца, нет особого смысла выжигать людям глаза запредельной яркостью.
Дополню цитатой с rtings.com
А вы сами прочитали, что именно вы процитировали?
Finally, we take a look at dynamic range. This is where HDR TVs will show the biggest difference.
Да, HDR позволяет увеличить dynamic range, для чего от дисплея требуется высокий уровень статического контраста. Если у вас увеличился контраст, то логично двигать не только нижний уровень яркости вниз, но и верхний вверх.
Но напомню, я спрашивал конкретно про случай, когда контраст и, соответственно, динамический диапазон остался прежним, так что эта цитата к делу вообще не относится.
Такой же эффект с тёмными окнами приложений, на обычной TN'ке всё сливается в одно целое, плохая контрастность и не различимость многих деталей.
Putty? Как начал возиться с VPS и дедиками, года три назад, так поставил — всегда окно влезало целиком и полностью «из коробки», 4К 200%. Что за винда?
Ну это вы не clear type отключили, но и весь алиасинг вообще. Алиасинг нужен!

HDR10 — в смысле 10-битный цвет?

UFO just landed and posted this here
Стандарт HDR10 предполагает, что монитор может принять HDR сигнал с дискретизацией 10 бит на цветовую компоненту, и при этом что-то показывать.
Такие мониторы не стандартизируются ни по яркости, ни по контрастности, ни по цветовому охвату, ни по гамме, вообще никак. Просто любой производитель может чуток подправить прошивку и объявить свой монитор HDR10-capable. Я не знаю, какой смысл вкладывал в этот термин Landgraph, фактического технического смысла в нем нет.
Всё верно, я про приём и «отображение» 10 бит (в кавычках т.к. там тоже куча подводных камней, т.к. матрица может быть 10 битной, а может быть 8 бит с плюшками и т.д.).

Речь идёт о тексте?


Для текста достаточно матрицы ~5х5px на символ. Разница в восприятии между матрицей и sans примерно такая же, как между courier и sans. Ну, это просто другой (плохой) шрифт, только вместо чётких гладких линий — ровные трёхцветные прямоугольнички.
Далее автор, пользователь retina, говорит о разных настройках сглаживания на дисплеях с 96dpi. Но пользователям 96 dpi разница в настройках сглаживания очевидна, она видна невооружённым глазом! Там же пикселы видно, в отличие от экранов 200..250+ dpi. Можно просто перебрать настройки и выбрать то, что нравится больше.
Также я не вполне понимаю, зачем 120fps для кодинга, это же работа с текстом.


Конечно, я понимаю, что 250dpi смотрится лучше, чем 96, и 120гц наверно лучше 60 (тут уже, наверно, не различу). Но что эта разница критична при работе с кодом, не думаю. (строго говоря, нельзя считать, что программист работает только с кодом)

Есть еще одна проблема — ноут поддерживает или 4 FHD монитора или только 2 4k. Это для меня довольно сильный довод подождать с новым монитором.
да, но 4к = 4*fhd, так что 2*4k = 8*fhd. только размер тогда должен быть 43 дюйма или более :)

И отдельный кабинет под 4 43 дюйма монитора )

Вот только монитор сам по себе хорош для разделения информации. Это как 4 папки вместо 2. В принципе, ноуту уже 5 лет. Так что скоро…

В свое время был замечательный формат 4х3, затем 16х10, 16х9 и ересь вроде 21х9, которая вроде как не взлетела. Потому что жадность продавать большую диагональ при меньшей площади должна иметь предел. Хорошо что есть iPad, который остался верен 4х3. Потому что позволяет вкусить прелесть этого формата, для тех кто вырос при FullHD/4k 16x9.

Так вроде же "длинные" форматы научно обоснованы, типа поле зрения у человека не правильное конусообразное, а сжатое по вертикали.

Дело в том, что человек смотрит не всем «полем зрения», а только тем, что по центру. Если даже на 16:9 приходится подкручивать головой, то с 21:9 сидишь как радар. Я купил такой однажды, через пару дней отправил назад.
А если рассматривать 21:9 с соответствующей диагональю как замену двум установленным рядом мониторам?
Для таких целей берут 32:9, там как раз высота обычного 1080P (например) монитора и две его ширины (то есть, фактическое разрешение 3840x1080) без рамок монитора посреди рабочего пространства. Можно даже подключить две половины к разным ПК, например, и переключаться на лету.
Согласен, если требуется действительно полноценная замена двум FullHD. Для себя долго прикидывал разные варианты и в ближайшее время собрался брать домой DELL UltraSharp U3415W 34" 3440х1440 (как раз 21:9). Обоснование:
  1. На работе привык к двум мониторам, но дома без кардинальной реорганизации рабочего места их не втиснуть
  2. Под мои задачи я вполне могу ужаться с 1920 до 1720 без особых неудобств, но вот по вертикали иногда 1080 чуток не хватает.

Может, пока не поздно, покритикуете мое решение?
Если вас устроит уменьшение фактического пространства, по сравнению с двумя мониторами, то никаких проблем. Ну убедитесь только, что вам будет удобно окна быстро располагать как удобно, я лично часто пользуюсь «жестами», тыкая окна в края отдельных экранов. На одном может быть придется для этого использовать виртуальное разделение.
Я осознаю, что на растаскивание окон потрачу чуть больше времени, но это ничто, по сравнению с частыми переключениями рабочих столов сейчас на одном FullHD мониторе. Меня в моем варианте гораздо больше смущает смотреть на два окна под углом, о чем пишет ниже darkdaskin.
Я бы на вашем месте нашел магазин, который позволяет посидеть за монитором и посмотреть его. Вам даже не нужен, в принципе, тот же самый. Достаточно той же диагонали и соотношения сторон. А отзывы в интернете это субъектищина же.
В какой части втискивания двух мониторов у вас проблемы? Ширина по основной части (экраны) или место на столе (подставки)? Если второе — оно решается кронштейном (к столу или к стене).
Я работаю дома не за столом, а за секретером, так что кронштейн со струбциной для меня не вариант. А кронштейн в виде настольной подставки на два монитора как то не выглядит устойчивым.

У меня аналогичный от Samsung, в целом доволен. Обычно сижу где-то в 90 см от него, так что головой крутить не приходится и шрифты выглядят достаточно чёткими. Когда нужно работать с мелкими деталями — просто подъезжаю поближе.
1440 по вертикали — самое то. Горизонтальные 3440 редко используются полностью, а разделять их пополам не всегда удобно. Получается, что смотришь под углом (хотя монитор и изогнут), 2 отдельных монитора можно установить под более комфортными углами. Возможно, привык бы, если бы делал так чаще, как привык к изогнутости (по началу тоже слегка некомфортно было).
В моём ещё поддерживается частота обновления в 100 Гц, что является приятным бонусом.

Получается, что смотришь под углом (хотя монитор и изогнут), 2 отдельных монитора можно установить под более комфортными углами.
Именно это внушает некоторые сомнения в правильности моего решения.
Наверное, не очень удобно будет.Раскидать окна по сторонам кнопками особо не получится, раскрыть окно на весь экран на одном мониторе из двух совсем не то же самое, что на одном длинном. К тому же у меня, если есть второй монитор, то иногда неделями повернут вертикально, чтобы в нем пдфки открывать.
К тому же у меня, если есть второй монитор, то иногда неделями повернут вертикально, чтобы в нем пдфки открывать.
У меня второй монитор всегда так висит, очень удобно для монтажа.
А в чём проблема с раскидыванием окон по сторонам кнопками? Если используем просто широкий монитор, то Win+◄ и Win+► позволяют открыть на половину экрана. Если большой монитор типа 4К телевизора — то можно использовать ещё комбинации типа Win + ►,▲ для открытия окна на четверть экрана (правую верхнюю в этом примере).
Так в том-то и дело, что у двух мониторов четыре половины экрана, а у одного всего две. Когда у вас два монитора, то приложение открывается на половину одного из них и у него четыре позиции (первый монитор слева, первый монитор справа, 2 слева, 2 справа) и легко можно раскидать три приложения. Когда монитор один, то позиции только две и три приложения парой нажатий кнопок уже не разместить.
Эх, на прошлой работе пригодилась бы. Сейчас пока потребности нет.
Хм. Хотел сказать, что в таком случае можно в windows ткнуть правой кнопкой на панели задач и сказать «отображать окна рядом», но при проверке выяснил, что в Win10 (и соответствующих серверах) эту опцию сломали совсем феерично. Причём сломали, судя по интернету, уже лет пять назад минимум.
В моём случае оно из 4 окон делает такую кашу:
image
О, я про такую опцию не знал/забыл.
Проверка показала, что в винде 8.1 (и 2012р2) расположение окон рядом или стопкой ещё работает. Сломана только 10, 2016 и 2019.
Сдаётся мне, это не столько фичу в винде отломали, сколько в приложениях понавтыкали минимальных размеров окна, и всё едет
Да если бы. Там даже три одинаковых окна проводника сейчас нельзя разместить нормально. На 7/8/8.1 — прекрасно работает.
К тому же, кроме управления серверами, все остальные окна на скриншоте стали значительно меньше правильного варианта и по ширине, и по высоте.
Форма поля зрения решает, когда нужно смотреть на картинку «в целом» — например, в кино.
А если говорить о работе, то решающую роль играет контент. Например, для видеомонтажа с его длинными горизонтальными дорожками длинный монитор благо. А текстовые листинги, как ни крути, растут вниз, а не вбок. Два листинга рядом это довольно удобно, но даже они не покрывают экран 21:9.
Какая-нибудь IDE и рядом какая-нибудь документация в браузере вполне заполнят экран 21:9
UFO just landed and posted this here
В теории да, а на практике нет. Дело в том, что нынешние широкие экраны, будучи перевернутыми вертикально, становятся слишком узки и высоки. Это я как практик говорю, пробовал несколько раз. Ширина получается маленькая, тесно; высота чрезмерная, приходится качать головой вверх-вниз. Плюс бывает вылазят проблемы то с углами обзора, то со сглаживанием. Впрочем, как второй дополнительный экран может и прокатить.

В старые времена, я знаю, журналисты-писатели ставили вертикально мониторы 4:3 — вот это интересный вариант. Да только сейчас таких почти не осталось, если не считать нескольких экзотических моделей по совершенно неадекватным ценам.
Ну не знаю, у меня три года уже второй монитор — это вертикальные 27" с 2560x1440 (16:9), полет не просто нормальный, а отличный. До этого 24" аналогичным образом еще несколько лет стояли. Основной лэйаут — листинг + терминал в нижней четверти.
У каких-то матриц еще плохая пиксельная сетка, что в вертикальном положении на границах букв (белый фон, черный текст) начинается радуга и читать невозможно.
UFO just landed and posted this here
UFO just landed and posted this here
Использую 40 дюймовый корейский 4к монитор за $400 на 100% (классические 96dpi) или 125% (чаще, около 120) в зависимости от настроения.

Тоже использую этот вариант сижу на 4К с лета 2015 года ) 5 лет уже.
Хочу попробовать 32 дюйма 4к и 120 fps но монитор хочу с глянцевым дисплеем как у mac.
А кристаллический эффект, зернистая картинка. Не понимаю почему большую часть 4к дисплеев делают с матовыми.
И подсветку хорошо бы без щим.
У меня монитор 22" с соотношением 16:9 и разрешением 1920 х 1080 и 100% масштабом (Убунту 18). Точнее, таких мониторов два. Расстояние до монитора — вытянутая вперед рука, едва касаюсь подушечкой среднего пальца (самый длинный палец, если что). Проблем с шрифтами не испытываю. Комментарии здесь, на Хабре, отображаются у меня шрифтом 15рх и всё хорошо выглядит, чётко, без замыливаний, артефактов, и прочих проблем. В IDE от IntelliJ тоже всё прекрасно.
Опыта использования 4к или ретина — нет. Могу быть не прав, но это всё пока что выглядит как «теплый ламповый звук» и позолоченные провода в аудиотехнике — чисто субъективные впечатления. Да, я про реалии 22", на гораздо больших диагоналях 4к вполне имеет смысл и там разница видна и ощутима.
UFO just landed and posted this here
К счастью, Эппл не совсем удалила субпиксельное сглаживание из macOS в 2018 году :). А то уже слишком привык подключать к маку 4k, а из-за короны пришлось пока работать на 1440. Они удалили это только из настроек в UI, внутри пока все есть, и включается из командной строки. Моя теория заговора, удалили чтобы продать кучу новых фирменных мониторов (стоят они у Эппла не дешево). Вот чудо команда:

defaults write -globalDomain CGFontRenderingFontSmoothingDisabled -bool NO
defaults write -globalDomain AppleFontSmoothing -int 1


Последний параметр подобрать по вкусу, после этого перезагрузиться, и можно наслаждаться очень неплохой (почти как на виндоусе) картинкой на 1440.

А я бы с удовольствием продаунгрейдился до SVGA и шрифтов, прибитых к пиксельной сетке. Вполне себе ничё так было :)


fonts
UFO just landed and posted this here
Вот кстати соглашусь. Надо будет в текущем линуксе на выходных поэкспериментировать с растровыми шрифтами в интерфейсе.
UFO just landed and posted this here

Не получится, из гткшного Pango поддержку растровых шрифтов выпилили в августе прошлого года :(

А у меня такой вот вопрос:
Ранее разница между монитором и телевизором была очень существенна и явно заметна на глаз.
Сейчас же я попросту не могу найти информацию о минусах применения телевизора в качестве монитора.
В результате уже пару лет в качестве монитора у меня TV LG 43UJ634V
т.е. это 4К IPS матрица, что работает в связке Hackintosh + RX 5700 XT по HDMI 2.0 — 60 Гц
настройки для работы (в игры не играю) цветность — 40 % яркость — 50 %.
Возможно от времени, я теперь замечаю неравномерность в подсветке, но, это единственная претензия, которая зачастую применима и к мониторам.
Нужна критика.
У телевизоров большой инпут лаг бывает — это заметно может быть в играх.
И, может быть не отключаемой или не отключенной всякие улучшители картинки — дорисовка кадров, их раскрашивание и все такое.
Улучшители картинки это как раз то, из чего собирается стоимость телевизора, но, главное как раз в том, что при подключении компьютера эти улучшайзеры отключаются. Я это к тому, что нынешний принципа выбора телевизора, для применения в качестве монитора — последнее поколение матриц, при этом телевизор может быть самым дешевым в линейке.

А он как-то определяет, компьютер к нему подключен или какой-то BD плеер или спутниковый ресивер?

В LG для входа можно задать, какой режим изображения должен использоваться. «Игры» убирает все улучшения со стороны телевизора и обеспечивает минимальную задержку.
Ранее у телевизоров при подключении была критична возможность вывода в режиме «точка-точка» (чтобы не включалось дополнительное масштабирование), сейчас с этим все намного проще, и все телевизоры работают отдавая чистую картинку.
UFO just landed and posted this here
Вообще не понимаю, какой наркоман придумал масштабирование картинки. В телевизор идёт цифровой сигнал 1080р, матрица 1080, но нет, мы возьмём, обрежем картинку и замылим что осталось.
Почему наркоман? Там два шага, оба логичные.

1. Старые CRT-телевизоры 1940х годов не могут показать всю картинку NTSC… решение: фильмы при записи записывается чёрными полями со всех сторон.

2. Новые LCD-телевизоры показывают фильмы с жукими чёрными полями (потому что они такие и есть)… решение: обрезать поля, растягивать картинку.

И все довольны.

А что там какие-то перфекционисты типа вас странают… так то такое. Хорошо что для вас хотя бы настройку не забыли сделать…
UFO just landed and posted this here
Есть ещё большие наркоманы по имени BBK. Телевизор с 768p представляется по HDMI как 1080p, и отображает картинку так, что обрезает все края — но отображает он её не пиксель в пиксель, а слегка сжав. При этом настройки масштаба там нет. Самое обидное, что там ещё и вывести 768p по HDMI нельзя никак — ругается, что формат ему не подходит.
Но когда идёт чистые 1080p, то к чему тут совместимость с проблемами NTSC бородатых годов?
Потому что «чистые» 1080p, если они идут с Blu-Ray тоже имеют полосы. Для того, чтобы на «NTSC бородатых годов» всё нормально смотрелось.
UFO just landed and posted this here
UFO just landed and posted this here
Сейчас нормальный телевизор не хуже монитора, если вас устраивает цветопередача и 60 герц. Использую 50" 4К в качестве 4 мониторов, радуюсь жизни. Более того, можно взять что-нибудь типа www.pulse-eight.com/p/104/usb-hdmi-cec-adapter и получить автоматическое включение экрана вместе с компом (выключаться LG не умеет, нужен Samsung, например) и засыпание компа при выключении экрана. Но про работу с hackintosh такого адаптера лучше почитать заранее — у меня он на винде живёт.
UFO just landed and posted this here
Ставится в разрыв, не мешает изображению, для компа прикидывается com-портом. Дальше уже софт на компьютере шлёт команды. Плюс можно пультом телевизора управлять компьютером. Увы, не знаю, что такое LOC (и бегло не нашёл). Если модель монитора/телевизора — смотрите на наличие поддержки HDMI-CEC в нём.
UFO just landed and posted this here
Никогда не цеплялся глазами за пикселизацию шрифтов, ни на смартфонах с низким и высоким разрешением, ни на мониторах.
Брать монитор с разрешением повыше и ставить разрешение пониже — звучит бредово. Обычно четкость шрифтов, если так прямо видно, регулируется через маштабирование интерфейса, а не понижением разрешения.
Использую 40" Illyama 4k, 100% маштаб интерфейса, проблем с пикселизацией нет, все весьма удобно. Сижу достаточно близко, на расстоянии чуть-чуть меньше полностью вытянутой руки.
Очень жду статью, где расскажут о недостаточно глубоком черном на мониторах и жалобах, что OLED дисплеев почти и нет на рынке
Брать монитор с разрешением повыше и ставить разрешение пониже — звучит бредово. Обычно четкость шрифтов, если так прямо видно, регулируется через маштабирование интерфейса, а не понижением разрешения.

Автор и пишет о масшабировании, а не о понижении разрешения.
Брать монитор с разрешением повыше и ставить разрешение пониже — звучит бредово.

Угу, пускай это и не буквально "ставить разрешение пониже", а "увеличивать масштаб". Звучит как "купите дорогую железку, которая позволяет отображать в 4 раза больше информации чем обычная, и с помощью пары лайфхаков деградируйте её почти до аналогичной обычной. И делайте это прямо сейчас, а не когда обычная сломается".


При том, что лайфхаки рабочие не на 100%.

Звучит как "купите дорогую железку, которая позволяет отображать в 4 раза больше информации чем обычная, и с помощью пары лайфхаков деградируйте её почти до аналогичной обычной

зависит от того, что нужно пользователю. Если гладкие ровные шрифты, то нет проблем поставить больший масштаб и потерять в количестве места. Но тут же такое дело — зачем мне на 4К 24" ставить 100%? Чтобы информации было много, но ее нельзя было разглядеть без лупы?

Тут вопрос зачем покупать 4К 24", если на 2К того же размера всё нормально видится. Глаза не разрывает и после 16 часов за компом почти без перерыва. И шрифты вполне себе гладкие, если голову в монитор не впихивать. В посте же подаётся, что 4к и 200% scale, да ещё на 120 Hz must have для тех, кто много работает с текстом.

Текст на 200-250% прям намного приятнее, чем на 100% (на самом деле — тут должны быть не проценты, а ppi). Но требует замены шрифтов на новые. Например Courier вообще не предназначен для такого масштаба, заменил во всех IDE на Consolas (может быть у вас есть варианты стандартных (предустановленных) шрифтов получше?).
120гц, конечно, не нужно никому, кроме геймеров, но и им всякие freesync помогают. Для программирования и работы с изображением достаточно flicker free подсветки. Хорошо, что сейчас уже много таких мониторов.

Всё же между "намного приятнее" и "всем нужен" есть тонкая грань :)

Действительно, не всем это важно. Но чтобы узнать, важно это или нет, наверное, нужно попробовать?
Я тоже годами пользовался ноутбучным монитором 15.6" 1366х768 и не жаловался, потому что не знал, что можно лучше. Но сейчас, после ретины, как взгляну на экран того старого ноута — плакать хочется.

Конкретно ноутбучную ретину я пробовал, но логические 1366 на 13 дюймов под макось мне хуже зашли чем физические 1920 на 17 под лмнуксом. Где взять на попробовать ноутбук с 17 дюймов 4к не представляю, или 27 дюймов монитор 4к.


Вообще я всю жизнь предпочитал пожертвовать частотой кадров и угловым размером текста да элементов UI, ради больше информации на экране, но вот на 120 dpi сдался — начал шрифтами играть да скэйлингом. А может просто совпало, что зрение садится…

UFO just landed and posted this here

Рынок мониторов более инертен, по-моему. Вот даже не знаю как должна карта лечь, чтобы я через год или даже три побежал покупать новый монитор, пускай хоть с 1000 dpi, хотя телефон может и куплю просто потому что Андроид 12 какие-то фичи интересные предложит, а на dpi даже и не гляну. Единственная представимая причина — IDE от JetBrains 2021+ и/или все браузеры разом откажутся нормально работать на 100 c копейками dpi, а будут хотеть 200+.

UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here

С месяц назад выбирал новый монитор и встала дилемма в рамках тех же 500 баксов, после отбора по другим параметрам: или 24" 4к, или 27" 2.5к. Как профессионал выбрал 27" — больше кода на экране помещается. А 27" 5к уже совсем других денег стоит.

Так постойте, ведь в 4к больше кода можно влезть чем в 2.5к?

Так 4к на 24" рассчитан на 200% масштаб, о чём и пост. 100% — это с лупой надо будет разглядывать. Даже на 40" некомфортно.

UFO just landed and posted this here
Это очень оптимальный вариант, примерно как fhd на 24. Элементы именно такие какие и должны быть. Пользуюсь 5 лет, доволен. Разве что думаю о будущем апгрейде на 4к 32. Надеюсь нвидия и амд выпустят достойные карты для 4к.

Есть мнение, всё же, что fhd на 24 или wqhd на 27 — всё же компромисс между комфортностью и тем как должно быть: куча софта заточена под 96 dpi, игнорируя информацию ОС/монитора. В результате указав размер квадрата в 1 дюйм получите квадрат 96х96 пикселей на 24 fullhd мониторе несколько меньшего размера. Идеал "такие какие и должны быть"для fullhd около 23", для wqhd около 31" если для "тупого"софта указывать физические размеры типа дюймов/сантиметров или формат A4

UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here

Спорно. Связываться с масштабированием винды нет желания, даже кратным. И цена у такого решения в разы дороже даже крутых игровых 2.5к 165гц мониторов.

UFO just landed and posted this here
А почему автор даже не упоминает ШИМ? (Допустим у маков его нет, но речь ведь о внешних мониторах и далеко не все из них имеют заветную надпись «Flicker-Free»
Видимо мне повезло и я не сталкивался с мониторами, у которых он есть. Не могу оценить насколько это критично
Всю жизнь работал на FullHD мониторах 23-24" и мне казалось, что всё хорошо.
После прочтения статьи взял у коллеги попробовать монитор 4к (те же 24")… Как это теперь развидеть?
4k и 200% масштаб интерфейса — идеальная четкость! С FullHD просто не сравнимо!
Пошел к начальству «плакаться» за новый монитор…
Вот-вот :) Вообще, есть стойкое ощущение, что немалая часть из комментаторов, критикующих статью, рассуждают о вкусе устриц.
Да, HiDpi — это круто, дома 15'' 4k ноут, я уже и забыл про размытые пиксели и устающие от них глаза, когда разница в движке рендера (вин/линукс) влияет на то, как долго ты можешь работать за пк

Вот на ноутбуках может и соглашусь. На ~100 dpi и fullhd могу нормально работать минимум на 17"

Ну кто бы мог подумать: дорогой монитор лучше дешевого!


И ни слова о расстоянии до монитора. А ведь можно легко сделать из fullhd монитора 4K, если отсесть от него на в 2 раза большее расстояние :)

UFO just landed and posted this here
UFO just landed and posted this here
Так проблема с масштабированием остается, оно не целочисленное.

На экранах 27" 5120 x 2880 вполне себе целочисленное.

Мне казалось, что под тот же веб стандартом для графики будет целевое разрешение 1920x1080 (ну либо наоборот, под телефоны). Он до 5120x2880 скейлится с дробью, в 2.6 раза увеличение. Когда цифра имеет дробь, это вызывает проблемы.

Э-э. 1920x1080 на 27" — как-то крупновато будет все. На самом деле macOS позволит так сделать, но стандартное логическое разрешение на такой диагонали, это все-таки 2560x1440.

Согласен, 1080P маловато, только если отсесть подальше. Под 27" я бы брал 4К с масштабированием для работы, плюс в любой момент можно переключиться на нативное 4К для просмотра видео, например, без масштабирования.
27" я бы брал 4К с масштабированием для работы

тогда будет проблема с нецелочисленным масштабированием.


На самом деле, не считаю это явление проблемой само по себе. Например возьмем iPhone плюсовых размеров (от 6+ до 8+). Не знаю, многим ли известно, но там физическое разрешение дисплея 1080 × 1920, при этом программное 1242 × 2208. То есть, рендеринг изображения осуществляется не точка в точку. Но слышал ли кто-нибудь жалобы на экран айфона, касающиеся нечетких линий? Я, по крайней мере, нет. А все потому, что запас dpi настолько большой, что этот момент уже становится неважным.
Но будет ли запас dpi на мониторе 27" 4К достаточным, чтобы рендеринг не точка в точку был незаметным? В этом я не уверен.

Конечно будет, но в отличие от 1440P монитора, 4К можно включить нативный по необходимости\желанию, да даже 1080P можно — скейлинг будет кратным. То есть мы «обмениваем» скейлинг до 1440Р (если он нам уж так нужен) на четкие 1080P и 4K.

проблема в том, что на 27 дюймах при нативных 4К интерфейс будет мелким, а при отмасштабированных 1080P — крупным. Тут как раз хорош dpi при 1440Р.

Согласен, для работы с текстом — самое то. Но если вы еще и проводите немало времени за видео или даже фильмами с сериалами за экраном монитора — лучше взять 4К и иметь возможность для работы ставить несколько более мыльный (чем у нативного 1440Р монитора) 1440P, а для этих самых видео — возвращать нативный 4К.
Вопрос баланса работа-развлечения.

Да, для видео согласен — чем больше размер дисплея, тем лучше. В идеале, как по мне, хорошо иметь 4К телевизор на 70" и отдельно 5К монитор на 27". Но, конечно, на практике такое себе сможет позволить далеко не каждый.

Опять же, тут речь не столько про размер дисплея, сколько про то, что видео (которое не снимают в 1440P) будет скейлиться из 1080P или 4К на 1440Р мониторе. Это не очень хорошо.
UFO just landed and posted this here
Иногда у людей бывают проблемы. Еще со стриминг сервисами вроде Disney+.
Лично я не сталкивался, у меня были только 1080P и 4К.
UFO just landed and posted this here
5k разрешение для 27" самое наиродное. Это ровно 200% по сравнению со стандартным для 27" 2560x1440 100%. что составляет 109 DPI — наиболее оптимальный масштаб, который нравится большинству. Новый apple дисплей увеличился пропорционально и стал 32" с разрешением 6к и тем же 109*2 DPI и идеально показывает на 200%.
по сравнению со стандартным для 27" 2560x1440
Простите, но вот как раз 1440P изначально появился, как промежуток между FHD и 4K. Как раз на нем часто жалуются, что не работает масштабирование нормально. Для меня это особенно больная тема, потому что фильмы\сериалы, да даже видео на ютубе — это либо 1080P, либо 4К, остальные — производные. В 1440Р не снимают, для игр это хорошее разрешение (кроме пиксельных), а для видео\фото контента — уже не очень.
для видео да, спору нет — это дробное разрешение, от которого только минусы. Но це — частный случай. В общем же, именно в рамках интерфейса ОС масштаб, даваемый 1440p при 100% и 2880p при 200% в размере 27" для среднестатистического юзера за типичным столом со нормальным зрением получается самым комфортным.
Но да, повторюсь, что согласен, что если главная цель компа — монтаж или просто просмотр кино/сериалов — то эта мысль не применима.
Аналогично! После матового 4K 32 Бенка с вырвиглазным кристаллическим антиматом, IMac 27 2017 для 14 часового сидения в день перед монитором для меня оказался лучшим выбором, несмотря на приличную цену. Причем, как и в macOS, так и в Win10. Лучше монитора я в жизни не видел за более, чем 25 летнее сидение перед различными панелями. Следующий уровень — Apple XDR, т.к. всё уже на 27 не влазит. Честно пытался перейти на DELL и прочие, но нет, не то!

А чего автор оригинала докопался до названий USB? Назвали же так. Да и USB 3.2 тоже есть. :)


Она также говорит, что USB 3.1 Gen 2 ограничен 10 Гбит/с, но я думаю, что ограничения USB 3 не распространяются на USB-C? Кроме того, что это за название — USB 3.1 Gen 2? Уже приняли USB 3.2?
UFO just landed and posted this here
USB Type-C появился примерно в то же время, что USB 3.1 (при этом USB 3.2 gen 1 это на самом деле 3.0), затем появился USB 3.2 gen 2 (собственно 3.1) и наконец 3.2 gen 2x2 (собственно 3.2), но в момент появления они назывались по-другому! USB type C это вообще форм-фактор коннектора, кабель может быть 2.0, 3.x. В-общем, дело не в маркетинге, дело, видимо, в том, что производителей нельзя обязать маркировать продукцию рекомендованным образом, если они не хотят её сертифицировать.

Вот Apple не хочет — мучайтесь, господа! Хуже того, все эти Type-C USB 3.x кабели поддерживают HDMI, DisplayPort и ThunderBolt только в альтернативных режимах, что порождает дополнительный геморрой.
UFO just landed and posted this here
В чём смысл переименования, кроме как в возможности второй раз продать «новейший USB 3.2 gen 1» который по сути стандарт 10-ти летней свежести
В том, что кто-то когда-то решил, что USB 1.1 должен отменить USB 1.0 и ввести понятия «Low Speed» 1.5Mbit/s и «Full Speed» 12MBit/s.

С тех пор каждый новый стандарт отменяет предыдущий. Это, извините, не маркетинг, это просто идиотизм.
UFO just landed and posted this here
А вы текст стандарта читали? Я когда-то читал для 2.0
Если в 3.0 они пошли по той же дороге, то там есть несколько физически разных режимов, с разной частотой передачи данных, разными требованиями к оммическому сопротивлению проводов и полосе пропускания кабелей. Отсюда и нарастание зоопарка — сохранить возможность экономии пары центов на проводах и разъёмах для медленных устройств типа мышки и клавиатуры
В USB 3.0, если не забыли, для Super Speed не «оммическое сопротивление» другое, а дополнительные провода, которые со стороны USB-A можно увидеть, покрутив коннектор, а в USB-B — так и вообще по форме коннектора отличить…
В USB 3.0, если не забыли

Забавно, но про дополнительные проводки я умудрился забыть )

Я неудачно попытался проиллюстрировать идею, что у создателей стандарта USB бывают причины переписывать старый стандарт (возможно, с изменениями) как часть нового.

А вот было ли так с USB 3.0 — я теперь не уверен.

Заглянул в Википедию — там попался режим
USB 3.2 Gen 2 x 2 — «ужас-ужас» — зоопарк всё плодится.
Я неудачно попытался проиллюстрировать идею, что у создателей стандарта USB бывают причины переписывать старый стандарт (возможно, с изменениями) как часть нового.
Вот только иллюстрация получается какая-то… неубедительная.

Ну вот посмотрите, скажем, на PCI Express. У них там всё чётко: 1.0 даёт 250 MB/s, 2.0 даёт 500MB/s, и так далее — вплоть до 4 GB/s в PCI Express 5.0 и ожидаемых 8 GB/s в Express 6.0.

При этом, внезапно, вы можете прекрасно вставить PCI Express 1.0 устройство в маму с поддержкой PCI Express 4.0, в стандарте PCI Express 4.0 всё, что нужно, прописано — и вам для этого совершенно не нужно переобзывать PCI Express 1.0 в PCI Express 4.0 Gen ⅛.

USB 3.2 Gen 2 x 2 — «ужас-ужас» — зоопарк всё плодится.
Угу. При этом, что самое-то смешное, разных вариантов у PCI Express гораздо больше (у современных матерей с поддержкой PCI Express 4.0 x16 слот может работать в одном из 12 режимов), а путаницы — гораздо меньше.

Вот зачем вот всё это? Зачем называть то, что раньше называлось USB 3.0 сначала USB 3.1 Gen 1, а потом и USB 3.2 Gen 1? Чтобы всех окончательно запутать?
UFO just landed and posted this here
Там всё зависит от того, как считать. И использовать ли лак для замазывания контактов. Ибо физически разъёмы бывают только трёх видов: 1x, 4x и 16x, но электрически — вроде бы всё должно работать и в режиме 3x и в режиме 13x (хотя не уверен, что это кто-то проверял).

Но да, называнные вами 20 — это наиболее распространённые…
UFO just landed and posted this here
И вроде никто не порывался назвать 2.0 как 3.0 Low Speed.
Оно должно было называться как USB 3.0 High-Speed во-первых, а во-вторых его можно было вернуть прямо в магазине.

В случае с USB 3.0 Super Speed данные передаются по дополнительной паре проводников, их наличие или отсуствие банально невооружённым глазом можно заметить.
Комменты не читал. Уже было про то, что для работы высокие мониторы лучше, а ретина 16:10 есть только у мак про, делл xps (да и то у делла только-только появились) и еще пары моделей ноутбуков, причем все со стоимостью >100круб? А настольных hi-dpi мониторов за вменяемые деньги с таким соотношением сторон вообще нет.
Судя по ценам на эти мониторы — мне пора менять жизнь.
UFO just landed and posted this here

Да, но за те же деньги можно взять 2 24" (если есть куда ставить) или один 27" на 2,5к.

Как же бомбит с этого высера опуса. Да, вот именно программисту не хватает гладкости шрифтов в IDE, всё верно, поэтому давайте там всё заблюрим своим поганым ClearType. Как сказал кто-то умный, «Cleartype is just the worst „fix“ for a non existing problem ever.» Отключаю эту хрень с самого начала агрессивного внедрения, начавшегося с виндовз, кажется, 7, потратив в сумме уже многие часы, изобретательность микрософта в попытках сделать это неотключаемым не знает границ. Специально придумали шрифты, которые без сглаживания рендерятся жуткой кривой лесенкой (привет, Calibri), а прекрасные Arial и т.п. отлично и четко отрисовываются без всякого сглаживания на низких DPI.
60 Гц, 120 Гц… А фильмы как снимали в 24 к/с, так и снимают.
А фильмы как снимали в 24 к/с, так и снимают.
Не все. Ну и есть способы увеличения частоты кадров.
Впрочем, 60ГЦ в основном на ютубе нынче, у блогеров.
Не все.
Десяток хоть наберётся?
Ну и есть способы увеличения частоты кадров.
Ну, про это я в курсе, сам пользуюсь. Но это ведь тоже костыль (и не всегда качественно работающий).

Сериалы часто под 50/60 к/с делают, оттуда и "эффект мыльной оперы"

UFO just landed and posted this here
Правда жизни для 90%: что на работе выдали — за тем и работай. Правда, один раз дали такой бюджетный Acer, что слезы наворачивались через 3 минуты работы. Тут уж потребовал поменять.

У меня от практически каждого нового монитора глаза где-то часов 6 болят, потом что-то подстраивается и болеть перестают. Один монитор, правда, разбил. Не в припадке ярости — случайно, но раздражение от картинки видимо сыграло роль. Это был LG с феерически неравномерной цветовой температурой и сертификатом, торжественно удостоверяющем, что на заводе была откалибрована цветовая температура в центре экрана.

LG к каждому монитору такую фигульку вкладывает.
UFO just landed and posted this here
Есть ещё несколько мониторов с диагональю 55 дюймов и более, которые было бы трудно использовать на обычном рабочем столе.

m1rko, огласите весь список пжлст.
Мечтаю повесить такой на стену и работать с расстояния ~1.5 метра, но связываться с телевизорами не очень хочется, бо падение цветовой чёткости, неравномерная подсветка, лаг, повышенная умность, которая мне совершенно не нужна.
Хочется просто качественную полу-матовую или матовую панель с выводом пиксель в пиксель и с мониторным лагом. Вам такое встречалось?
P.S. Сори, пропустил плашку «перевод». Тогда вопрос не к автору, а в общий эфир.
Автор здесь присутствует tonsky
Ну и отвечу на ваш вопрос: проблема телевизоров и их подсветки не в том, что они телевизоры, а в том, что они большие. Поэтому у больших мониторов тоже будут проблемы с подсветкой.
Что касается лага, то есть ТВ с небольшим. Вот, изучите.
22" 1080p строго лучше чем 27-30" 4к. Появятся 22" (ну край 24) 4к со 120гц и IPS — можно будет подумать над покупкой, и то разве что в рамках «старый сломался и хочется чего-нибудь современного». Не надо чинить то, что не сломано.

22"? Оно же микроскопическое. Даже во времена моего детства были 19" мониторы (у очень богатых).

Автор пишет о том, что в макбуках с 2016 года стали ставить дефолтным масштабирование не 2х, а 1.71х, и что это очень плохо. Но пробовал ли автор сравнить различные варианты масштабирования на макбуках до 2016 года и после? Скорее всего нет.
А по факту 1.71х (и другие из меню) на макбуках начиная с 2016 выглядят почти так же, как 2х. Я пишу «почти», потому что наверное если куда-то сильно приглядеться, то можно будет увидеть разницу, но я ее в повседневном использовании не вижу.
А использование у меня действительно повседневное. Рабочий мак 13 2019 с 1.71х и личный 15 2015 с 2х. Каждый день использую оба — разницы не вижу. Сглаживание в меню на обоих отключено. Если на 15 2015 поставить 1.71х, то там да, будут мыло и лесенки, видно прям невооруженным глазом.
Уж не знаю, что там Apple сделали, но факт, что на новых макбуках любое разрешение (по крайней мере из предложенных в меню) выглядит четко.
Пробовал конечно, 2018 и 2019 макбуки 15". Каждый раз себе говорю: попробуй, места больше, вдруг не заметишь? Замечаю и иду менять на 2x
У меня регулярно возникает аналогичная ситуация «попробуй, места больше, вдруг не заметишь» с 15 2015)
Видимо у нас разная чувствительность к четкости.

Долгое время работал на макбуковской ретине с масштабом 2х. Потом работал с масштабом 1.71х, потому что на экране мало места, это не вызывало никакого дискомфорта.


Затем подключил внешний монитор LG 29UM69G-B с плотностью пикселей чуть меньше 100. В результате испытываю 0 дискомфорта. А вот когда я подключал Acer Nitro VG270Ubmiipx, я испытывал боль и страдания, но дело было не в плотности пикселей (она там чуть выше, чем на LG) а в цветопередаче и подсветке.


Поддержка MacOS отстой. Официально ни один из компьютеров Apple не поддерживает ничего выше 60 Гц, даже при нормальном разрешении:

Использую macOS на частоте 75 Гц (максимум монитора). Система поддерживает эту частоту, но не вся, например, вертикальные анимации Mission Control дёрганные. Но мне приходится использовать эту частоту, чтобы компенсировать задержку Magic Trackpad.


Бонус: как включить настоящее субпиксельное сглаживание на свежих macOS: https://apple.stackexchange.com/a/337871

Небольшой лайф хак.
Если вы очкарик, как и я, то просто закажите очки на пол-диоптрии послабее. Я так и сделал. Картинка просто отличная, супер сглаженные шрифты, даже на ЭЛТ мониторах. Я не шучу :)

UFO just landed and posted this here
Использую DeLL U2412M 24 уже несколько лет, полет нормальный, что я делаю не так?
Вы не пробовали месяц поработать на мониторе с высоким ppi и после этого вернуться обратно ;)
Приведите пример такого монитора
Из таких я пользовался только макбуками с ретиной. После привыкания на текст на мониторах с ppi в районе 100 больно смотреть.
Полагаю, что с другими мониторами с высоким ppi такая же ситуация — после них трудно будет вернуться на низкий.
Не могу с маленькими экранами работать после 24"
UFO just landed and posted this here

27 это уже 5к надо смотреть, наверное.

UFO just landed and posted this here
Кстати, я до макбука работал на двух 22" мониторах. И мне тогда казалось, что два монитора намного удобнее, чем один.
Но перейдя на макбук осознал, что этого размера хватает (главное, чтобы в IDE 120 символом по ширине влезало). И второй экран мне теперь не нужен, так как у меня любое приложение открыто на весь экран, и переключаюсь я между ними через cmd+tab и cmd+~ между окнами одного приложения. Это очень быстро и не надо искать на каком экране откроется приложение. На винде пробовал так же через alt+tab переключаться, но там тупо сделано — показываются превью окон с маленьким значком приложения в углу. Пока поймешь где нужная программа много времени уходит. Это напрягает и не удобно. На маке просто большие значки приложений, сразу видно куда переключиться.
И самый главный плюс ноута — мобильность. Да, ты всегда можешь отключить ноут от монитора и пойти поработать в другом месте. Но если ты привык работать на большом мониторе, то будет некомфортно, и ты поскорее вернешься к монитору. При работе чисто за ноутом такой привязки нет.
На винде пробовал так же через alt+tab переключаться, но там тупо сделано — показываются превью окон с маленьким значком приложения в углу. Пока поймешь где нужная программа много времени уходит. Это напрягает и не удобно. На маке просто большие значки приложений, сразу видно куда переключиться.
Кошмар какой. Никогда даже не задумывался над тем что и кто там показывает. Alt+Tab+Tab+Tab это на три экрана «вниз», чего там смотреть-то? Знаю, что я успеваю переключиться, как правило, до того, как список окон успеет показаться (и вот здесь, как раз, в MacOS X была проблема — она, сволочь такая, не переключала раньше, если я одним движением нажимаю Alt+Tab+Tab+Tab… может починили уже… много лет не общался). А если уж я переключаюсь куда-то так далеко, что я не знаю, сколько экранов мне «крутить», так я скорее через таскбар туда пойду.

Но это, конечно, уже к мониторам никакого отноешния не имеет…
Да, до мака я тоже альттаб использовал только максимум на 2 экрана вниз. Но на маке альттаб выглядит вот так:
mac_cmdtab_menu
В таком виде очень удобно переключаться между всеми экранами. И не нужно курсором лезть ни в какой таскбар — все делается клавиатурой.
Кроме того можно нажать один раз cmd+tab, а потом уже вместо tab стрелочками переключаться в обе стороны, тоже оч удобно.
Linux'вом Cinnanmon есть (интересно — выясним мы когда-либо, кто устроил диверсию с GNOME3 и угробил неплохую эргономику в пользу хотелок UXов?), но это в любом случае требует исследования того, что перед нами открылось. А в таскбаре всё расставлено в том порядке, в каком я окошки расставил, думать не нужно…
Виндовый подход удобнее для людей, которые держат открытыми несколько окон одного приложения (да, я из них). Значки одинаковые, содержимое окон — разное.
На маке это делается тоже довольно быстро. Cmd+tab — выбираешь приложение и сразу же cmd+~ — выбираешь окно приложения.
При условии, что у макбука клавиатура ANSI (а не убогая ISO), в которой тильда находится прямо над табом — безымянный палец просто переходит чуть выше, а большой остается на месте.

Тут надо использовать то одну комбинацию, то другую, то их обе в зависимости от контекста...

И за что минус? За факт? :)

Ага. Только половина виндовых приложений — sdi, другая половина — mdi.

Судя по тому, что я даже не понял суть возражения — я не сталкивался с данной «проблемой».

Смотрите — вы топите за унификацию. Типа каждый отдельный документ в отдельном окне. Ну, тогда, чтобы быть последовательным — начните с браузера.
Ах, да, обычно пользователь сидит в одной вкладке (текущей)? Ну, так я и документы обычно редактирую по одному. Ну, или меня не обломает переключиться между двумя документами в рамках одной программы, если вдруг все-таки я буду редактировать два документа в параллель.
Или тогда, получается, какие-то программы более равные, чем другие? И все равно запоминать две комбинации клавиш…. Хм….


VolCh — это и к тебе тоже

А, это было single/multi-document. Так в этом и смысл — я использую новое окно для группировки документов по теме.
У меня часто бывает открыто 2-3 окна браузера (например, рабочее и личное) и в каждом по нескольку вкладок. Или 2 окна Sublime Text (разные проекты) и в каждом по нескольку файлов.

Кроме того, разные окна используются, когда браузеры расположены на разных мониторах. Например, рабочее + доки. В этом случае особенно удобно видеть визуальное соответствие окон с их превьюхами.

Переключение между вкладками в рамках одного окна и между разными окнами — разные вещи. Я вот, бывает, специально вытаскиваю отдельную вкладку в отдельное окно, чтобы как раз пользоваться средствами переключения окон ОС.

У меня кератоконус, потому очки не помогают. Приходится работать в контактных линзах. Что бы линзы не часто вставлять купил себе 32 дюймовый экран, 1080, дешёвый. Поначалу казался огромным, но потом привык и стал замечать, что пикселей маловато. Особенно если масштаб в редакторе у еньшить, что бы больше текста вошло. В итоге купил себе самый дешёвый BenQ 4k монитор. Пришлось помучиться, прежде чем все заработало. Приходиться поддерживать старый софт, который нормально не масштабируется на экране, плюс ноутбук не самый мощный и второй экран 4к еле тянет. Плюс с проводами не все хорошо. Короче геморрой ещё тот, но того стоило. Могу теперь фонты сделать по 5 мм высотой и нормально в очках работать подолгу.
Везёт автору с 4K, а я давным-давно на 27" 2560х1440, то бишь мне по аналогии нужен 5K. А сейчас, насколько я вижу, вообще есть только 1 такой монитор от LG, который видимо аналог какого-то эппловского моника, т.к. цепляется по thunderbolt и расчитан явно на работу с маками. Так что ждать, осатётся только ждать :(

5k монитор — весьма редкий зверь

UFO just landed and posted this here
В идеале да, но выше 200% целочисленность уже не настолько принципиальна. Желательна, но не критична. Условно, масштаб 250% будет намного лучше, чем 150%.
А почему нельзя в векторе рендерить под любое разрешение? Тогда можно будет смотреть в любом масштабе, те же веб страницы пришли к тому что их можно легко масштабировать.
Вектор абсолютно ничего не меняет. Это лишь один вариантов промежуточного представления изображения. В конечном итоге монитор все равно растровый и картинка рано или поздно должна стать растровой со всеми теми же проблемами попадания в пиксели.
Так его можно подогнать под любой растр с любым масштабом. Ещё более 10 лет назад замечал что многие люди на мониторах с «высоким DPI», это тогда было около 100, допустим те же 17" при 1280*1024 всегда ставили более низкое разрешение чтобы видеть лучше. Тут много людей, которые наоборот рекомендуют плотность пикселей чуть больше 100, видать имеют орлиное зрение, как им всем угодить?
В Win32 возможность адаптации была заложена ещё с древних времён, но это всё ложилось на плечи разработчика ПО, которые это игнорировали в основной массе.
Тут много людей, которые наоборот рекомендуют плотность пикселей чуть больше 100, видать имеют орлиное зрение, как им всем угодить?

Двигать монитор для комфортного углового размера при родном разрешении матрицы :) А так, помню, на ЭЛТ иногда ставил 1600х1200, но ненадолго, потому что частота развёртки снижалась до, кажется, 50 Гц и становилось некомфортно.

Чтобы подогнать вектор под любой растр, придется подгонять не картинку в целом, а каждый элемент индивидуально.
Частично это реализовано. Для шрифтов это называется хинтинг. Или например браузеры подгоняют размеры блоков под пиксельную сетку, если они оказались дробными. В частных случаях это возможно.
Но в общем случае — слишком сложно. Учитывая зоопарк технологий, практически невозможно. А растягивать картинку целиком ничего не даёт. Поэтому вектор нас не спасает, за исключением некоторых частностей.

Начиная с некоторого масштаба, эта проблема теряет актуальность.
При 150% масштаба я не вижу разницы между ClearType и обычным рендерингом. А при 200% можно уже и от хинтинга отказываться.

А текст и так в векторе рендерится давно. А вот с масштабированием остального (иконки, картинки, границы элементов управления) на 125% и 150% лажа.

Ждём, пока подъедет маркетинг, и расскажет зачем массово нужны 8k мониторы, потому что сейчас их ну прям очень мало и очень за дорого.

Ровно затем, зачем смартфоны с плотностью пикселей 3x (сейчас это уже мейнстрим) и даже 4x (флагманы Samsung и LG).

Не, я о том, что сначала появились 4k дисплеи за дорого, потом слово "4k" стало звучать из каждого утюга, а потом цены стали доступными. Ждём того же с 8k.

С 8К получилось, как ни странно, наоборот. Есть весьма ограниченное количество камер, способных снимать в таком разрешении, поэтому оно считалось разрешением для создателей контента. Позволяет увеличивать картинку в 2 раза (для целевого разрешения 4К) или еще больше (для 1080P) без потерь качества.
В «карточном домике» использовали, например, для красивых, отцентрованных планов. То есть можно сэкономить время операторов и актеров, поправив косяки съемки на монтаже. Вот в этом видео про это рассказывают, с 3 минуты — техническая составляющая. И да, это производители контента, а не маркетологи, они вам 8К не продают.
Зачем такое разрешение для дома я ответить затрудняюсь, но я за его продвижение, потому что за техникой подтягиваются площадки. Всегда в подобных обсуждениях даю ссылку на это видео, гораздо приятнее выглядит в 8К даже на 1080P мониторе, особенно если вглядываться в окна или людей на улице. Чем больше детализация, тем лучше, как по мне.
UFO just landed and posted this here
Слышал, что самые приличные фильмы снимают камерами 6K. Но это точно для 3D.

Ну если считать, что DPI на хорошем экране должно приближаться к таковому у дешевого принтера (300 dpi), а не быть уровня первых VGA мониторов (меньше 100 dpi), то для 50+" панелей а-ля "телевизор", должно быть 8к, даже если источник 4к по сути. А то шрифты того же OSD будут віглядеть неркасиво. :)

Ну если считать, что DPI на хорошем экране должно приближаться к таковому у дешевого принтера (300 dpi)
А зачем так считать, извините?

Принтеру огромный DPI нужен, чтобы обеспечить приемлемый LPI. Особенности тенологии. Принтеры с темопереносом дают лучшую картинку при 100 DPI, чем типичный оффисный принтер при 600 DPI.

а не быть уровня первых VGA мониторов (меньше 100 dpi),
У монитора LPI и DPI совпадают. Пресловутые 72DPI/96DPI — это как раз типичный LPI для качественной печати.

Собственно все беды начались тогда, когда кто-то решил «накакать себе в карман» и сделать так, чтобы вы не получали картинку с должным LPI (при наличии более чем достаточного DPI).

После чего и начались «героические преодоления» собственноручно созданной проблемы.

Почему выход «перестать какать себе в карман» считаетеся плохим… мне ведомо конечно: на нём денег не заработать.

А то шрифты того же OSD будут віглядеть неркасиво. :)Если их нормально рендерить — проблем не будет.
Пресловутые 72DPI/96DPI — это как раз типичный LPI для качественной печати.

Как подсказывает вики, это значения крайне низкокачественной печати на газетной бумаге. Даже копеечный лазерный принтер выдаёт значения лучше.
Самые современные e-ink читалки с DPI >300 только приближаются по детализации к хорошим книгам, что очень легко увидеть, если положить их рядом.


С другой стороны, на больших экранах такой DPI не очень нужен, мы на них не смотрим с расстояния в 30-40 см.

мы на них не смотрим с расстояния в 30-40 см.

А вот это ситуативно. Банально — большой монитор в митинг-руме, кто-то стоит от него в 5 метрах на дэйли, а кто-то в тех самых 30-40 см.

Имхо, вся эта теория — ерунда. У меня чувствительные глаза и я выбираю мониторы только «на глаз», не по характеристикам. У моего аймака (который я отдал сыну, мне он не подошел из-за оси) вроде всё идеально с экраном, но… для моих глаз изображение (имею ввиду больше текст) жестковато.

В итоге купил с рук за 45 тыщ монитор Nec EA275UHD… правда еще калибратор пришлось купить, ибо гамма была немного сбита. В итоге получил практически идеал — изображение схоже с маковским, но при этом несколько мягче, глазам спокойнее.

Но повторюсь, этот идеал только для моих глаз. Никого не слушайте, смотрите всё своими глазами. Если много работаете с текстом, перед покупкой смотрите на текст и обращайте внимание не на формальные параметры, а на общее впечатление: легко ли вам смотреть на текст? комфортно? нет давления на глаза? тяжести? Так что всё индивидуально.
перед покупкой смотрите на текст
это да, но обычно в магазинах освещение абсолютно не такое, поэтому «посмотреть перед покупкой» тоже не панацея. У меня в кабинете когда шкаф огромный появился и изменилось освещение пришлось менять настройки моника, чтобы снова глаза не уставали. Я прям удивился, когда понял, в чем дело.
но обычно в магазинах освещение абсолютно не такое, поэтому «посмотреть перед покупкой» тоже не панацея

Да, это проблема. Поэтому я в итоге (если покупаю для себя) стал рассматривать покупку монитора с рук. В этом случае продавец как правило предоставляет возможность нормально всё проверить.
Шрифты действительно выглядят лучше с хинтингом, чем без него
(картинка)
Нет хинтинга (macOS) → есть хинтинг (Windows)
А мне левая часть показалась лучше качеством.

Подумалось тут: может люди, активно топящие за 4к на экранах меньше 40 дюймов сильно пересекаются с людьми, тратящими часы только на первоначально настройку монитора после покупки, причём как монитора под ОС, так и ОС под монитор, а то и калибровки заказывающие при любом апгрейде. С людьми, которые одним взглядом определяют какой шрифт используется в том или ином месте, и те-же часы могут тратить на подбор шрифтов.


Если так, то бесполезно им, по-моему, объяснять что-то таким как я, которые про шрифты знают только то, что они бывают рубленные и с засечками, пропорциональные и моноширные и про шрифты в своём основном инструменте могут только сказать, что они дефолтные. Чем отличается яркость от контрастности не знают и чаще всего оставляют заводские настройки. Я вот подозреваю, что основной шрифт в моей IDE моноширный, но рубленый он или с засечками вспомнить не могу. Отличается ли он от шрифта в терминале — понятия не имею. Наверное, потому что было в анонсе, что джетбрейнс новый шрифт разработала, вряд-ли они его в системе подменили, поэтому там дефолтные убунтовский. Вот вряд ли кто сможет убедить меня купить 4к монитор, чтобы увидеть работу дизайнера шрифтов полностью. Когда-нибудь может куплю 5к, чтобы было, если он будет на процентов на 20 дороже аналогичного 2.5к. А так, если люди первого типа будут доминировать, то скорее работодатель купит мне два 24" 4к без моего ведома, а я и не замечу :)

Имею 4k 32" с масштабированием 150% и я не фанат, мне просто норм. Минимально подкрутил яркость, контраст и заменил шрифт в терминале =)

При этом на работе 2 старых монитора FullHD 23". Разница не прям вау-вау, но в целом домашний комфортнее, глаза меньше устают, все почётче и опять же контент в 4k сочнее.

При покупке 4k домой исходил из того, что в монитор я смотрю много, покупается он надолго, тем более, что это не так дорого, так что почему бы не сделать своим глазам чуть чуть приятно.

Брал бы 32" — скорее всего взял бы 4к и смирился бы с масштабированием. Но банально лишние 10-12 сантиметров не впихнуть на стол, чуть ли не квартиру другую тогда надо брать "в нагрузку" :)

Читаю ваш комментарий с 13.3 дюймов 4к экрана. Основной текст IDE долгое время был Courier new. Но вот он совсем не приспособлен под HiDPI, пришлось дефолтные настройки везде (ну, кроме vs code) менять. Поставил везде consolas (как в vs code по дефолту), стало прям хорошо. Причем и на доп мониторах (1920*1200 24"), которые на рабочем месте подключаю, тоже терпимо.
120 Гц для плавной анимации текста — чтоа? Это было всерьез?
Все предложенные мониторы — этот Acer или Asus. То есть быстрые(но это неточно) TN матрицы с наихудшими из всех китайских подходами к «улучшайзингу» цветопередачи(а вот это с гарантией). Хорошая попытка, Acer, но нет.
Н.И.К.О.Г.Д.А.

Искренне ваш, пользователь ужасно низкого разрешения 2.5К на медленном IPS от LG и BENQ
То есть быстрые(но это неточно) TN матрицы
почему сразу TN? Сейчас бывает как минимум 90Гц IPS именно в мониторах (ну а в телеках и выше 120Гц IPS — не то что не новость, а вообще «дела давно минувших дней»). Смотреть надо, времена «быстрое — только TN» давно прошли благодаря телевизорам.
240hz IPS у меня был буквально месяц назад. Вернул из-за битого пикселя.
Уже долгие годы сижу за мониторами примерно 110ppi (2560*1440 27'', 3440*1440 34''), вероятно это мало, на смартфонах точно будет заметно… Есть в продаже вообще конечно 34 дюйма и 2560*1080px, вместо 3440*1440px, на ноутах тоже в основном FullHD на 15.6 (103ppi), все равно везде на этих экранах 100+ ppi ставится обычно 125% масштаб, чтобы не мельчило…

Но есть у меня и ноут с 2к разрешением на 13 дюймах, на маках такое идеально работало, на винде хоть и улучшилась ситуация последние годы, но во многих приложениях жуткое мыло, размывает, поэтому не особо стремлюсь к ретинам для windows, другое дело что на ноутбуках например если ищешь экран с хорошими цветами и яркостью и без кристаллического эффекта, то это обычно автоматом всякие 2к-4к топовые матрицы…

А как разница между 27 и 34? Мне кажется, что 32 — максимум что можно поставить на стол глубиной сантиметров 70

Ну на 27 влезает 1.5 окна, т.е. для одного сильно широко, для двух узко, тем более когда сайт верстаешь под 1920 по ширине… А на 34 тоже самое по высоте, только на треть шире и это как два увадратных монитора поставить, только иногда можно при монтаже видео по ширине таймлайн растянуть, очень удобно, а вечерами фильмы смотреть без полей снизу и сверху, на 27 все равно поля есть… Стол у меня 65 в глубину, монитор на кронштейн прямо к стене прижат почти без отступа от нее...

У меня рабочие мониторы ~95DPI — один 3440x1440 (98mm x 335mm), другой 2560x1440 (597mm x 336mm).
Я использую большие буквы. Во-первых их хорошо видно на расстоянии (а я предпочитаю держать мониторы на расстоянии порядка метра, чтобы не напрягать глаза), во-вторых они довольно хорошо выглядят.


Вот кусок этого комментария в том виде, как я обычно работаю, и 10x зум от него же.


И что эта картинка должна продемонстрировать? Что вы понятие не имеете о том, как работать с графическими редакторами?

Если смотреть именно на пиксели, а не на то, как мылит ваш редактор, то выглядит это примерно так:


Но эта ошибка навела меня на мысль: внутре ж у неё неонка нейронка, так? Что будет если масштабировать с помощью waify2x?

Будет примерно вот это:


Что, конечно, неплохо, но если сравнить с технологиями 80х годов на мониторе без «ретины»:


Это «крупный» шрифт Xterm:


То есть всё, что мы получили в результате четверти века «улучшений» — это учетверённую нагрузку на процессор и «радугу» вместо чётких цветов. Ах, ну да: ещё точное соотвествие пропорций шрифты всем феншуям, какие могли в голову придти авторам этих шрифтов.

Оно действительно того стоит? Если вы работаете с текстом, а не с графикой?

Нет, понятно, что дизайнерам, который разрабатывают документы и кому важна точная передача шрифтов и прочего это может быть полезно (хотя если вспомнить что они «верстают», с позволения сказать, в MS Office — то скорее нет), но для программиста?

Я переделывал картинку, и забыл повторно linear выбрать. Посыпаю голову пеплом.

Бывает. Кстати я, когда игрался с настройками waify2x обратил внимание: если увеличивать без Noise Reduction — то на выходе получается «абстрактная живопись» очень слабо похожая на буквы. Отдельные пятна какие-тою Если же Noise Reduction включен на хороший уровень — то получаются очень гладенькие буквы, прям почти как оттиск печатный…

То есть, похоже, в данном конкретном случае жалобы на то, что раньше «трава была зеленее» — вполне объективны.

Если у вас достаточно плохой монитор, дающий достаточно шумную картинку — то мозг отлично её «дорисует» для себя в буквы и всё будет отлично.

А вот если у вас предельно качественный, очень чёткий, монитор… то, внезапно, буквы на нём будут читаться хуже… забавный результат, если честно.
А вот если у вас предельно качественный, очень чёткий, монитор… то, внезапно, буквы на нём будут читаться хуже
Я не понял логику такого вывода.
Контрпример — журнал с качественной полиграфией. Разрешение выше 600 dpi. Читается отлично.
У меня вопрос — а какая разрешающая способность у человеческого глаза?
Одна минута углловая?

В среднем, но и от человека зависит, и от освещенности, и от спектра источника сигнала.

UFO just landed and posted this here

В картографии считается, что минимальный размер объектов, которые можно различить, около 0.1мм.

Объект на карте — это узнаваемый рисунок. Например остров с обводкой береговой линией и заливкой цветом, соответствующим высоте над уровнем моря.
У меня широкоэкранный монитор, особых проблем нет

Статья, рассказывающя о рендеринге шрифтов под Windows, без упоминания MacType не может считаться полной.

Вот когда сделают 4K 16:10 тогда и перейдём. А пока площадь важнее разрешения.
вот кстати у меня тут 1600p монитор как раз на 32". Но я бы наверное даже сказал что в этой диагонали я бы уже хотел монитор поуже да подлиньше (т.е. 16:9), чтобы можно было окон по горизонтали размещать. И вообще поглядываю в сторону ультравайд.
Что бы больше окон надо просто два монитора.
И, кстати, два монитора FHD гораздо полезнее для программиста и вообще работы с текстами, чем один 4K.
У меня два монитора, один 16:10 1600p и другой 16:9 1440p вертикально.

Хороший ультравайд на 1440p — это фактически два стандартных 16:9 1440p, просто без рамки и зачастую изогнутый. Очень много места.

Мне что-то сразу не понравилось в рендеринге на MacBook 15, но не мог понять что. Теперь все стало на свои места. Всегда взгляд цеплялся при нецелочисленном масштабировании, но на макбуке из-за высокого разрешения не было понятно что именно не так.


Настроил сглаживание и масштабирование, картинка стала приятнее. Но все крупнее, на экран влазит чуть меньше. В целом так больше нравится, но надо еще поработать чтобы понять как лучше.
Я бы рекомендовал всем пользователям макбуков попробовать предложенные настройки, есть вероятность, что сделаете работу себе чуть комфортнее.

Какая ж густопсовая джинса…

Два монитора: 27" — 2k, 24" — FullHD. Шрифты выглядят отлично. И под Windows (10, ClearType), и под Linux (Fedora 32, FreeType).

Для вас шрифты выглядят отлично, для кого-то нет. Все просто — что нравится, тем и нужно пользоваться. Но, прежде делать свою оценку, нужно попробовать и то, и то.

Но, прежде делать свою оценку, нужно попробовать и то, и то.
Вот только получите вы то, что решили вам впарить маркетологи.

Почему, чёрт побери, когда я набираю текст непосредственно на Хабре у меня буквы появляются с задержкой?

Меня это бесит куда больше, чем какие-то проблемы с тем, что буквы не так сглажены.

И да, я знаю как решить эту проблему: uxterm+vim, copy+paste — и тормозов нет. Одновременно с ними нету и проблем пиксельного сглаживания.

Но почему-то вместо этого мне предложено восторгаться ретиной и вот этим вот ужасном, который я наблюдаю перед собой.

Почему — не подскажите?

Моё мнение: потому что за ретину с меня можно слупить денег, а за uxterm+vim — нельзя. Хотя, возможно, я просто ретроград и ничего не понимаю в эстетике. Всё возможно.

Невозможно только признать что вот эта вот замена — является всегда однозначно полезной и разумной…
UFO just landed and posted this here
Они и в Firefox появляются с задержкой. Просто меньшей.

Чудес же не бывает: если код написан через задний проход, то он будет тормозить независимо от браузера и железа.
UFO just landed and posted this here
Вероятно у вас более производительный компьютер. Здесь в треде на 500+ комментов с пк на Ryzen 3900X с 64 гб памяти более или менее фривольно вне зависимости от браузера, а вот с хромбука на безвентиляторном процессоре уже совсем другой коленкор. (при этом в хромбуках как правило заметно шустрее браузер шевелится чем на других платформах).

Что-то надо оптимизировать разработчикам хабра. Правда лагает сильно.
Если поставить на хромбук Firefox (я не издеваюсь, это действительно возможно) будет лагать чуть меньше. Но всё равно заметно.
Да, я знаю. Он у меня даже установлен. Все равно заментно как вы и сказали.
UFO just landed and posted this here
Вот только получите вы то, что решили вам впарить маркетологи.

если мне это нравится — не вижу ничего плохого, полезные вещи пусть впаривают.


Почему, чёрт побери, когда я набираю текст непосредственно на Хабре у меня буквы появляются с задержкой?

не знаю, у меня задержек нет.

не знаю, у меня задержек нет.
Вы проверяли? Или приучили себя к тому, что когда после нажатия на клавишу буква появляется через полсекунды — то это нормально?

А если вы можете легко приучить себя к тому, что нужно чуть-чуть подождать — то почему не можете привыкнуть в тому, что вот это вот пятно — это и есть буква «ж»? Если уж нормальные растровые шрифты вам не годятся по идеологическим причинам?

если мне это нравится — не вижу ничего плохого, полезные вещи пусть впаривают.
Что вам нравится очень сильно зависит от того, что вам говорит реклама и ЛОМы (лидеры общественного мнения) и очень слабо зависит от того, что вам реально приятно и полезно.

Такое появляется иногда. Т.е. часть собеседников в треде не понимает о чём речь, а часть не понимает как этого нельзя не замечать. Закономерности я пока не понял.

Возникает, вроде, когда количество комментариев приближается к 1000 в Хроме. Ну и, вероятно, зависит от того как машина вообще и браузер в фоне нагружены. Не решил ли почитать хабр пока билдится большой проект или разворачивается кластер локально, не открыл ли в соседней вкладке что-то тяжелое, ну или просто сотня вкладок открыта

Возможно, thermal throttling добавляет развлечений.

У кого-то возможно, у меня вентилятор выть начинает, при открытии этого поста, но в тротлинг ещё не уходит, хотя сегодня вроде самый жаркий день за неделю.

Вы проверяли? Или приучили себя к тому, что когда после нажатия на клавишу буква появляется через полсекунды — то это нормально?

вау, вы знаете, что у меня текст появляется через полсекунды. Наверно, вам нужно в телепаты идти.
На самом деле, текст у меня появляется практически моментально, при том что я использую bluetoоth-клавиатуру. Задержка, конечно, какая-то есть (она всегда и везде будет), но явно не полсекунды. Измерять ее точнее — извините, не буду, мне это не нужно.


Что вам нравится очень сильно зависит от того, что вам говорит реклама и ЛОМы (лидеры общественного мнения) и очень слабо зависит от того, что вам реально приятно и полезно

да что вы говорите, знаете меня лучше меня самого, наверное? Действительно, мне нравятся IPS-экраны больше, чем TN — это все влияние ЛОМов. Мне нравится интернет 4G больше, чем 2G — это влияние рекламы. Я вас понял. Считаю, дискуссию в этом ключе смысла продолжать нет.

вы просто не поняли о чем речь. На хабре случается (когда к статье много комментариев), что в поле комментариев текст появляется с большой задержкой. Вот сейчас у меня между нажатием и появлением проходит до секунды. (я успел набрать предыдущую фразу до буквы «ж» в слове «между», а на экране еще ничего не было, потом появилось все сразу). А в соседнем окне, где каментов мало, все работает как обычно.

habr.com/ru/post/508824/#comment_21801434
UFO just landed and posted this here
Ну отлично, чо. Хороший монитор, без задержек.
UFO just landed and posted this here
у меня ноут на i7 4го поколения и тоже притормаживает, вообще на хабре с комментами туго, видимо очень много скриптов для отслеживания что прочитано, а что нет, удобно и очень тормозно грузится…
UFO just landed and posted this here
Как это вообще связано? Для начала tonsky — технарь, при чём тут маркетологи?
Притом, что вы не можете от них скрыться. Никак.

Вот возьмите хотя бы тот факт, что вы с вами сейчас общаемся не с помощью голого деда или Alpine, а с помощью жуткой поделки, которая тратит ресурсы в никуда, требует, для чётких шрифтов, пресловутой ретины и так далее — по списку.

Потому что вот это вот всё дерьмо — это «модно, стильно, молодёжно», а NNTP — это круто, только сегодня вы в USENET собеседников не найдёте.

Вот я лично хочу и качественную картинку и отсутствие задержки.
Вы это имели 20, а то, может, и 30 лет назад (хотя тут спорно: то что вы могли получить отсуствие задержки и качественную картинку в 1990м не значит что много людей это тогда получало).

Проблема только в том, что и то и другое люди по дефолту не требуют, откуда им знать что может быть лучше?
Ниоткуда. Они будут требовать того, что, как маркетологи решили — им можно впарить…

А чтобы что-то стало дешёвым, оно должно быть массовым, нужен запрос, сформированная потребность.
Нет. Если что-то стало, вдруг, дешёвым, то это что-то вскоре станет объявлено ненужным. Потому что задача маркетологов — деньги зарабывать, а не жизнь вам улучшать.

Вот с разрешением это более менее легко — показал один раз красивую картинку, дал попробовать и привыкнуть и человек уже сам хочет.
Не так-то легко, на самом деле. До этого нужно было лет 10-20 внедрять в сознание, что пиксельными шрифтами пользуются только нищеброды.

Потому что с растровыми вы такого эффекта не получите, да и вообще — нет смысла ни в какой ретине, если у вас шрифты попиксельно выверены.

А с задержкой — где у людей возможность сравнить?
Было бы желание, а возможности найдутся.

Самое смешное-то заключается в том, что там, где на задержках реально можно заработать (в играх и железе под них) — там их, внезапно, и измерять умеют и продвигать умеют и продажи отличные…

А вот там, где софт создаётся по принципе «возьми дерьмо, заверни в дерьмо, посыпь дерьмом и, главное, фантик „вкусная конфетка“ не забудьте» — там этого нет.

Потому что как только вы заикнётесь о задержках и померяете каковы они где-нибудь в intelliJ Idea или VS Code… так тут же и выяснится, что никакой монитор на 120Hz или 144Hz вы никому не впарите, потому как при задержках в приложениях по полсекунды никакой разницы между 30Hz, 60Hz или 144Hz вам увидеть не суждено.

Нет, отдельные эстеты могут, конечно, купить, чтобы мышка плавнее двигалась… но ясно, что на них кассу не сделать — вот потому и «нету у людей возможности сравнивать».

А если бы и пошли, то тут же нашлись ребята (даже здесь в комментариях есть), которые бы начали говорить «что только маркетологи не придумают, чтобы новое впарить, задержку им надо уменьшить, надо же, я вот в ssh печатаю на другой континент и меня никая задержка не парит».
Конечно. Но если бы на этом можно было сделать деньги — то маркетологи бы пробились рано или поздно. Капая на мозги, используя известных людей и так далее.

А если он и есть, то вы же не пойдёте агитировать за уменьшение задержки, потому что «есть urxvt + vim».
А вот если денег нет — то всё иначе.
UFO just landed and posted this here
массам можно впарить только какие-то выпуклые, чётко видимые невооружённым взглядом характеристики
Ещё раз: массам можно впарить что угодно вообще. Даже вещи, которых не существует. Посмотрите как прекрасно продаются «органические продукты» или как чудесно AT&T продавал несуществующий у него 5G (а до того 4G… 3G...).

Какая уж тут «видимость взглядом». Но вот впарить массам что-то «хорошее и дешёвое» — нельзя. Ибо нечем платить впаривателям будет.
UFO just landed and posted this here
Ну просто в их рекламу было не так много ресурсов вбухано. В США на Ogranic продуктах — вполне себе народ неплохие деньги делает.

Так-то понятно, что продать несуществующий товар всё-таки сложнее, чем существующий. Но если на этом можно заработать денег…
С ограник продуктами — есть сложность с терминологией.
Похоже разные продаваны дают такое название по разным критериям.

Например, мне когда-то попадалось, что для США «органик» сводилось к тому, что продукция прошла контроль на содержание вредных веществ вроде ДДТ, пестицидов, нитратов и т.д. Причем нормы при этом были аналогичны ещё советским.
Гарантировать, что это действительно так — не могу.
Предложите качественный IPS 4k, с несерым черным, с минимальной засветкой в пределах 20000 рублей

Хотите более глубокий чёрный? Смотрите в сторону *VA-матриц.

Я не знаю, что такое несерый чёрный, это ОЛЕД? Сегодня взял АОС 2790, 24 с доставкой; меньше на я-маркете не нашёл ничего достойного (flicker-free, low-blue и т.д. на борту)
Какую глубокую рекламу можно высосать из двух пальцев: дерьмовой отрисовки шрифтов в Виндах и шрифта, почему-то позиционируемого как пригодный для программирования, хотя для отрисовки мелкого текста он очевидно неудачен.
А кто-то нам платить за обновление монитора? У меня 1024х768 SyncMaster 793df
Сижу за 32" Benq 4к в масштабе 1:1 на 32 дюймах можно считать условно приемлемым. Использую масштабирование текста/контента внутри тех программ, которыми пользуюсь.
Тоже крайне некомфортно вести разработку на ноутбуке, хотя брал с хорошим разрешением экрана, но отдавать такие деньги за монитор я не готов.
13-14“ на FHD без масштабирования маловато, очень мелко.

Даже на 17" на пределе. Уже не комфортно, но терпимо

Старенький но топовый когдато самсунг 24 дюйма в качестве основного и новый но весьма посредственный 19 дюймовый филипс в качестве вспомогательного меня вполне устраивают. До тех пор пока не выезжаешь на длительное время за пределы страны. Таскать с собой напрягает! Ноут 14 дюймов 1980 пикселей очень мелко. Масштабируешь теряешь качество. При подключении к ноуту HDMI монитора сигнал почему то заметно замыливается. То ли у филипса вход дрянь, то ли у ноута модулятор. Кабели вроде разные пробовал.
Дробление пикселя… вы просто получите рождественскую гирлянду


на практике — участвуют красные и зелёные цвета. как итог перелив идёт в сторону красного, заметно это на прямых линиях. ох помню какая это «жопоболь» была на офисниках от Асера, мне тогда три монитора поменяли (одна и та же модель). как итог — у меня проблемы с цветовосприятием, сказали мне коллеги, которые бирюзовый от голубого не могли отличить, а я пол года сидел за монитором, у которого 10-15% текста было красным (не буквы целиком, а только часть, например последняя вертикальная линия в букве «Н»)
UFO just landed and posted this here
В Win10 есть опция масштабирования. На мониторе 27" 2560×1440 я ставлю 125%.
В принципе можно ведь и разрешение экрана искусственное поставить в такой же пропорции, и масштабировать будет сам монитор.
Наверное, он делает это хуже. Зато нет проблем со старыми программами, которые не понимают масштабирования (часть элементов интерфейса уезжает за пределы диалогового окна и т.п.)

Или все-таки минусов от изменения разрешения экрана существенно больше, чем от масштабирования?

Мне почему-то кажется, что тексту не особо критично (скорее плюс, что будет точно вмещаться, куда следует), а вот линии всякие от «аппаратного масштабирование монитором» ухудшатся существенно.

Можете про это пояснить?

P.S. Помимо разрешения и размера мне кажется, очень важно, чтобы он по высоте настраивался. Когда выбирал монитор, с удивлением увидел, что большинство подставок такой возможности не предоставляют.
UFO just landed and posted this here
К монику сразу взял струбцину на край стола, отлично регулируется высота) Цена удовольствия 1220 рублей всего.
А потом вот такие любители высокого разрешения фигачат скриншоты и видео со своих Макбуков безо всякой компресии и делятся Powerpoint'ами на 30 слайдов под 500M (суммарная длительность видео < 10мин). Еще весело было, когда только Retina Mac'и появились, когда такой маковод включал показ экрана в видеоконференции — всё внезапно проседало…

Если честно, большинство этого Hi-Res ничем не отличается от теплых ламповых Hi-Fi компонентов. Толку мало, понту много, хомяки ведутся. Естественно, если смотреть в монитор 30" с расстояния 30см, то там только хайрес, только хардкор!
Это вы наверное не пробовали высокое разрешение. Ну а показ экрана должен учитывать двукратное масштабирование.

И как он должен его учитывать? Как я понимаю, при двухкратном масштабировании картинки, условно 1920х1080 нигде в компе нет ни на долю секунды. Есть именно 4к на всех этапах обработки. Какая-нибудь браузерная приблуда с шарингом экрана должна сама понимать какое масштабирование в ОС включено и сама масштабировать 4к в FHD, желательно учитывая, где fullhd растр, а где 4к вектор?

Под MacOS ретина 4К идёт как HiDPI 1080, т.е. разметка идёт по старому, а отрисовывается в более высоком разрешении

Я не про разметку. Вот хочу я окно IDE расшарить через браузерную приблуду типа google meet. Как я понимаю, единственный растр имеющийся в памяти компьютера (растровые иконки и т. п. не считаем) — это готовая 4к картинка.

UFO just landed and posted this here
У меня рабочий MacBook Pro 15" с ретиной и прочими приблудами. Первый месяц — вау, прикольно… Сейчас перебрался на HP zBook 15" с обычным FullHD без прочих приблуд (благо, работодатель грамотно устроил BYOD) — разницы не чувствую, и назад на ретину не тянет. В общем, был бы MacBook без ретины — дискомфорта бы не почувствовал.

У меня есть еще 27" монитор FullHD — там действительно было пиксели видно и это раздражало. Потом я заметил, что еще и глаза вправо-влево бегают, и понял, что просто монитор слишком близко стоит, т.к. я его там же поставил, где и старый 21". Отодвинул монитор — вопрос снялся. Поэтому и абзац про 30" на 30см.

Про показ экрана — сейчас многие уже учитывают, и просто ограничивают разрешение исходящего видеопотока в самой программулине (Zoom, Teams etc). Там еще веселый промежуточный этап был, когда при подключенном внешнем супер-пупер-HD мониторе пережатие этого самого исходящего видеопотока не могло выполняться на GPU (насколько я знаю, до сих пор такая проблема встречается, зависит от видеокарты и драйвера), и у того, кто включал показ экрана, локально проседал CPU, которому приходилось в реальном времени пережимать 4K :)

Главный посыл моего коммента: если вам лично нравится Hi-Res или Hi-Fi, дело ваше. Но если вы за него агитируете, упоминайте и негативные стороны тоже, и при использоании ответственно относитесь к окружающим (не слушайте музыку на весь район и не шлите скриншоты на 40MB).
Прочитал. Подумал, прикупил AOC 2790 (4k, 60). Win10, 200%.
Идеа-а-ально :)
UFO just landed and posted this here
текст без ClearType выглядит как дерьмо


текст c ClearType тоже выглядит как дерьмо

У меня:
1) dpi чуть меньше 100 (23" 1920x1080)
2) настройки шрифтов дефолтные, в детали всяких cleartype и сглаживаний не вдавался
Никаких проблем не вижу, правда буквы под лупой не разглядываю в отличие от некоторых.

добрый день. машина windows или mac?

Всё упирается в деньги. Национальная валюта сильно просела по отношению к доллару. Это дорого покупать iMac, Macbook с ретиной.
никогда не променял бы рендеринг текста ретины на едва заметное обновление частоты обновления.

"Обновление частоты обновления..." мда.
Ну если автор играет только в игры на подобие "3 в ряд", то может и так. Однако, в любом FSP разница не будет заметна разве что слепому.

В картинке сравнения «плохого» рендеринга шрифтов в Windows и «хорошего» в MacOS последний выглядит как размытое непотребство. При том что видно как ClearType корёжит шрифты в Винде, но читаются они лучше. Да, с точки зрения дизайнера шрифтов и яблофила вторая картинка возможно выглядит «правильнее». Но этоге отменяет того что это размытое дерьмо, на которое больно смотреть.
102.46 на работе.
Ну а шрифты — явно не Paint используйте для рисования текстов.
Хорошая статья, очень интересно мнение автора/комьюнити о mini led технологии, как на новых ASUS pro art
UFO just landed and posted this here

Немного не так.
Mini-LED — это действительно про многозональную подсветку обычных LCD. Это не сильно крутой прорыв, но всё же.
QLED — вообще не про подсветку, а про отдельный слой, преобразующий синюю подсветку в нужный цвет субпикселя.
Большой дисплеи из отдельных светодиодов-пикселей — это просто LED display.
А вот microLED как раз обещает быть "идеалом" — массив мелких неорганических светодиодов-субпикселей, которые выдают идельную контрастность, хорошую яркость и цветопередачу, но при этом не деградируют как OLED.


UPD: В разработке ещё есть active-matrix QLED или QD-LED — практически microLED с диодами на квантовых точках.

UFO just landed and posted this here
уже 3 года жду OLED-экраны в массы, пока есть только смартфоны, тв, ноутбуки
UFO just landed and posted this here
А что чувствуют инженеры, которые сделали, например, мелодию вместо гудка в телефоне. На одном собеседовании мне с гордостью говорили о решённых проблемах (собеседовали меня).
Интересно, как чувствуют себя инженеры и ученые, которые решают миллиард проблем, прежде чем условный «микролед» становится реальностью и продаётся на каждом углу, а обыватели только и кричат «фу, нинужный маркетинг, хотят впарить фигню за бешенные деньги»
Нормально себя чувствуют. Также точно, как люди, занимающиеся поддержкой каких-нибудь «сайтов с котиками». Или HFT. Понятно, что ни microLED, ни котики, объективно, никому нафиг не нужны, а HFT так даже и вреден… — но инженерные задачи там бывают интересные.
UFO just landed and posted this here

Или наоборот, раз кто-то за это платит, значит кому-то это нужно.

Это уж на 100% неверно. В рамках «распильных» схем могут платить за что угодно вообще. Вплоть до выкапывания канавы с последующей её засыпкой — и так по кругу.

Всё равно кому-то нужно, чтобы ты копал.

Еда нужна. Спать нужно регулярно. А то очень недолго протянуть получится. Проверено многократно.

Так что «ничего никому не нужно, а может даже вредно» — это преувеличение. Но да, оно недалеко от истины.

Потому, собственно создание miroLED ничем не отличается от создания какого-нибудь фреймворка: задачи и там и там интересные, а будет ли от этого какой-то прок… заранее предсказать всё равно невозможно.
UFO just landed and posted this here
Вот так и растягивается цепочка от еды ко всему остальному.
Вот только тянут её маркетологи и рекламные агенты, а не люди, занимающиеся квантовыми точками.

И востребованность оных зависит больше от рекламы, чем от реальных преимуществ того, что вы делаете.
вообще не про подсветку, а про отдельный слой, преобразующий синюю подсветку в нужный цвет субпикселя.


А я думал, что они на QD создают таки на каждый субпиксель источник своего цвета. Там грубо говоря ширина спектра будет около 6 ТГц у каждой подсветки, т.к. охлаждения хотя бы жидким азотом нет.
Может быть Вы правы, и получилось как-то на поглощении сделать. То есть из спектра «синего» диода светофильтром «синего» субпикселя точно отсекается кусочек около максимума зеленого рецептора и красного, из спектра «зеленого» — возможный хвост в сторону «синего» (хотя скажем при максимум 533 нм наверное возле 633 нм диод очень слабо излучает) и кусочек возле «красного» рецептора.
на каждый субпиксель источник своего цвета

Это как раз вроде пока в разработке.
А то, что давно продаётся под брендом QLED — это слой, который преобразует синий свет в чистый зелёный и красный (с потерями, но меньше, чем в обычных фильтрах).
Впрочем, я знаю ненамного больше, чем в статье на вики.

Значит какая-то фотолюминесценция. Как люминофор на ртутной лампе, так здесь нужно преобразовать фотоны. По логике — с эффективностью не более «1 в 1», то есть при переходе из 400 нм в 600 нм КПД до 66%.

Там в статье и написано про фотолюминисценцию.


КПД до 66%

Ну да, и это лучше, чем предельные 33% в случае идеальных поглощающих фильтров, а значит можно получить больше яркости дисплея за ту же яркость (и энергопотребление) подсветки.

Надо сказать, что впихнуть 1000 зон подсветки в монитор — это совсем не дешево и не то чтобы просто.
UFO just landed and posted this here
так как всё равно проигрывает OLED.
У OLED есть выгорание, которое банально не позволяет использовать такие экраны для ряда задач. Если нужны глубокие черные и много статики на экране — придется брать много зон подсветки.
По поводу зон подстветки, такое есть ИМХО. Есть объективная величина того, какой маленький кусочек видео может участвовать в кодировании. Если Вы условно делите монитор 1920x1080 на 400 «зон яркости» 96x54 — может будет где-то польза.
Помимо ClearType в Windows есть настройка This PC — Properties — Advanced system settings — Advanced — Performance — Settings — Smooth edges of screen fonts
Но весь этот перфекционизм разбивается о Windows-приложения, не оптимизированные для работы с нестандартным параметром плотности пикселей, и о UN*X, особенно в «чистой» консоли т.е. во фреймбуфере Linux или в Raster Mode во FreeBSD.

В этом случае 1080p превращается в допустимый максимум, а я вообще скучаю по традиционному соотношению сторон и плотности пикселей, совпадающей со стандартными параметрами Windows. Я часто бываю на Web-страницах, свёрстанных под низкое (но недостаточно низкое, чтобы просто открыть два окна в разных половинах экрана) горизонтальное разрешение или читаю (а пишу — и не «иногда»!) письма в формате text/plain. С окном почтовика проблема та же (оно узкое, но недостаточно), легче уж в «чистейшем» текстовом видеорежиме — да-да, именно в 80x25 знакомест, — работать.
Для меня у широкого экрана преимущества только два: просмотр фильмов в высоком разрешении без масштабирования и Word Writer в режиме «открытой книги». И от них я готов отказаться. Тем более, Writer у меня редко открыт один (например, тот же видеопроигрыватель на фоне), так что ему всё равно приходится ютиться где-нибудь в правой половине экрана.

Скрытый текст
Нет, конечно, по разрешению 1280x1024 я нив коем случае не скучаю; с радостью бы перешёл на 1600x1200 или 2048x1536, но стоят они в два раза дороже 1080p, и не факт, что они flicker-free. Так что остаются либо «попсовые» 1080p, либо 1600x900, что годно только для ноута, либо Авито. К слову, почему это на последнем мониторы покупать не стоит? Кроме режима самоизоляции, разумеется.


P.S.
Да и «чистейший» видеорежим в виртуалке и в DOS, загруженной на реальном железе — небо и земля (впрочем, на Radeon'ах, кажется, с этим получше).

Кстати, вспоминал я тут как-то о некой распространённой модели «нетбучного» (со схожей диагональю) монитора, у которого входы на все случаи жизни (и HDMI, и VGA, и даже композит). Он ещё в каких-от видео с малинкой и на фан-сайте ZX Evo засветился. Вполне возможно, его я куплю, ибо держать консоль постоянно подключенной к серваку удобнее, а свободных мест у KVM-свитча нет, но на нём и рабочая станция «висит». Но, видимо, он всё равно будет подключен к рабочей станции наряду с текущим FullHD-монитором. И настроен как основной.
По поводу «2 листа в Word» согласен. Несколько удивился этому факту при переходе от ноута 1366x768 к десктопу с FullHD. На новом ноуте ещё не успел видимо поработать с текстами больше 1 страницы.
Сижу сейчас за 1600x1200 20.1", купленным на авито. Сейчас глянул, по нему есть 3 предложения в Питере и недорого. HP LP2065.
На 1920*1200 еще лучше, а еще и панель задач вертикальная меньше мешает на широком мониторе.
Взял 4к монитор (Acer Nitro). Поставил 200% масштаб и приготовился созерцать красивые буковки:) Но что-то пошло не так…
Фото на зеркалку. Шрифт Courier New, в RAD Studio 10.2, Win10

старый HD монитор BENQ
image

Новый 4k монитор с 200% масштабом
image

1 старый пиксель теперь занимает 4 пикселя, это совсем не тот эффект что описан в статье… почему так?
UFO just landed and posted this here

Комбинация клавиш Win+"+" была дважды нажата, включился magnifier и увеличил всё в 2 раза?

UFO just landed and posted this here
Шрифт Courier New

Вот тут не так. Это старый шрифт с хинтингом под крупную пиксельную сетку.

старый шрифт с хинтингом под крупную пиксельную сетку
А разве это может приводить к тому, что субпиксельное сглаживание растягивается на 4 пиксела?

Больше похоже на то, что приложение сглаживает шрифты, но не умеет в масштабирование и в результате его масштабирует система.

ЗЫ Есть ещё вариант, когда монитор поменяли, а разрешение экрана — нет ))

Да, рассмотрел картинку внимательнее и, похоже, приложение просто не умеет в HiDPI режим.

Блин, какая лупа, вы чего:)) Разрешение родное. Масштаб в винде поставил 200% (Телеграм кстати не умеет сам его подхватывать, благо что масштаб ставится в самой телеге, но не суть).
Приложение — это RAD Studio 10.2 Tokyo, не исключаю конечно что студия не умеет, но эт было бы странно… К сожалению монитор уже вернул, проверять в других прогах не стал поскольку я работаю в студии, как все выглядит в других местах было не важно.

А может кто показать, как должен правильно выглядеть шрифт Courier New 10 в 4k 200%?
UFO just landed and posted this here
Помнится, масштабирование формочек было уже в Delphi Express 2005.
Так что, с большой вероятностью, RAD Studio должна уметь.
Но. Решение о том масштабировать вывод приложения или позволить ему самому принимает система на основании информации в манифесте приложения. Есть смысл по-узнавать подробности на профильных разделах Реддита или в техподдержке.

Пара старых статей об масштабировании:
https://habr.com/ru/post/248135/
https://habr.com/ru/post/254211/
Телеграм умеет подхватывать. Но только при запуске и только от основного монитора. С двумя мониторами с разным dpi это боль :(
UFO just landed and posted this here

Не отличный он. Типичный экранный шрифт дремучих годов, подражающий печатным машинкам, даром что векторный. Чудовищный хинтинг двигающий буквы к сетке, прыгающие начертания букв от изменения размера, позорная отрисовка в больших размерах, когда одного пикселя уже не хватает для толщины штрихов.
Это реликт эпохи, когда пикселей было так мало, что проще было прям по ним рисовать, не пытаясь ничего сглаживать, жертвуя равномерным межбуквенным расстоянием и приятными начертаниями.

Чудовищный хинтинг двигающий буквы к сетке, прыгающие начертания букв от изменения размера, позорная отрисовка в больших размерах

В качестве оправдания вашему кошмару перфекциониста, могу сказать только, что в природе, к счастью, практически нет пользователей, которые способны самостоятельно увидеть эти недостатки, по крайней мере, пока профессиональный дизайнер не скажет «фу-фу-фу», и не покажет пальцем, где :)
Недостатки сразу вылезут, как только запустите что-то с этим шрифтом на hidpi экране. Реально невозможно пользоваться.

То есть не только монитор менять, но и шрифты по всей системе? А приложениями, авторы которых и авторы документов которых указывают конкретный шрифт, типа Ворда невозможно будет пользоваться?

Вкусовщина конечно, но Courier New давно следует сменить на что-то более красивое. Независимо от смены монитора. Этот шрифт хуже читается в мелком размере, по сравнению с многими другими.

UFO just landed and posted this here
Сравните


Это у меня на hidpi с масштабом 250%, соответственно, если на 100%, то как-то так:
вот отмасштабировано


С русскими буквами всё совсем печально. Хотя, вроде, менее отвратительно, чем было. Может обновления винды какие поменяли рендер немного. Год назад (когда купил себе ноут с таким экраном) я прям плакал.
UFO just landed and posted this here
Масштабировал картинку, указав её размер таким образом, чтобы на 100% масштабе она была по размеру как у меня на мониторе.
На 250% они оба сверхчеткие, размер пикселя такой, что его не видно. Но из-за тонких линий курьера глаза сильно напрягаются. А с русскими буквами просто ужас — все линии разной толщины.
Хотя, вроде, менее отвратительно, чем было. Может обновления винды какие поменяли рендер немного.
Для старых приложений, которые не пересобрали на новых sdk. всё довольно плохо, и действительно немного улучшалось в последних версиях десятки. Но всё равно самое лучшее для этих приложений — перекомпилировать.
Второй совет, выставлять масштабирование кратное 100% так пиксели не будут дробиться при тупом масштабировании.

Ну и вы пробовали менять параметры совместимости?
Скриншот снят в последнем файрфоксе, так что про старые СДК тут речь не идет. Когда только купил ноутбук, с разными параметрами игрался. В какой-то момент получились четкие буквы и мыльные картинки в старом ПО. В новом с самого начала все работало относительно нормально. Но курьер нью от этого лучше выглядеть не стал — толщина линий в разных буквах также скачет (особенно в русских буквах, но и в английских тоже видно), а сами линии слишком тонкие.
По поводу кратного масштаба — я понимаю. Но 300% слишком крупно, а 200% — слишком мелко :)
UFO just landed and posted this here
Проблема в том, что на условных 100 ppi 1 пиксель вполне достаточно для комфортного восприятия. А на 330 ppi (а 4к на 13.3 дюйма — это именно столько) — очень тонко и текст не воспринимается.
Субпиксельное сглаживание включено — потому что радугу на таком ppi не видно совсем, а вот различие толщин линий и интервалов — немного видно. По крайней мере моими глазами.
На вашем скриншоте радуги нет. Но вот с интервалами всё очень плохо:
Линии стали ещё тоньше, зато каждая чётко по одному пикселю, без цветной мазни.

А то, что текст в прямом смысле нечитабелен — вас не смущает?

UFO just landed and posted this here
Win10, 4к на 13 дюймах, масштаб 250%. Пользоваться невозможно, везде пришлось менять на consolas. На предыдущем ноутбуке с 14", 2.5к экраном и 150% масштаба пользоваться было можно, шрифт не менял.
из нашей с вами переписки чуть ниже, но по времени — раньше.
ну, курьер старенький )
UFO just landed and posted this here
Win10, 4к на 13 дюймах, масштаб 250%. Пользоваться невозможно, везде пришлось менять на consolas. На предыдущем ноутбуке с 14", 2.5к экраном и 150% масштаба пользоваться было можно, шрифт не менял.
UFO just landed and posted this here
При работе с кодом в конфигруаторе 1с (там это дефолтный шрифт) хотелось плакать. И не от кода на языке 1с. Слишком тонкие линии, причем у разных букв разной толщины, см. habr.com/ru/post/508824/#comment_22017828
К счастью для нас, это легко исправить (по крайней мере, сейчас). Перейдите в раздел Системные настройки → Дисплеи, снимите флажок по умолчанию и выберите вместо этого разрешение 2×:

Под этим абзацом есть скрин на 5 возможных вариантов разрешения. У меня macbook pro 13* 2015, Catalina 10.15.7 (19H15) и только 4 доступных варианта: https://imgur.com/a/yMQAX9v
Это от чего зависит?

Это от чего зависит?

От размера экрана. На моделях 13" варианта четыре, на 15" — пять. Наверняка у вас нет варианта с FullHD.

Articles

Change theme settings