Комментарии 380
Долго сидел на ЭЛТ мониторе когда у большенства уже были ЛСД.
Почему? Монитор был профессиональный графический из Японии и тогдашние ЛСД не шли ни в какое сравнение.
Потом появились годные ЛСД правда стоили как самолет…
Годный по цветопередаче а не по скорости.
По скорости — не знаю я не геймер :)
У меня тут мысль возникла. А современные DLP матрицы по скорости как?
ИМХО весьма быстро если несколько цветов на кадр отработать могут.
А есть же и 3х матричные проекторы.
Годно это для проф игроков?

Если нужен именно монитор, можно проэкционный монитор для игр сделать сверх быстрый.
EIZO в свое время очень понтовались с серией ColorEdge, но стоили действительно сравнимо с самолетом. Впрочем, старые добрые Barco были не дешевле в свое время.
Про сейчас не знаю: серия вроде жива, стоит по-прежнему…
Были еще NEC UXi не знаю есть ли сейчас. Не такие понтовые как Ейзо, но…
Когда себе искал монитор с 1600х1200 на IPS, нек этой серии был одним из кандидатов. Но за разумные деньги в нормальном состоянии на глаза не попались, потому купил примерно аналогичную соньку.
NEC'и были хороши, да. Потом, кажется, у них поехало качество — но впрочем, я могу ошибаться. Почему-то после определенного момента я перестал их рассматривать в качестве кандидатов, но это было уже достаточно давно.
Не помню.

Наверное, здесь могло бы быть место для ответа вроде "у меня нет монитора, я пользуюсь LSD и смотрю ковер". :)

В основном везде 8 бит и всем пофигу). Глубина важна для работы, та и то там скорее важна точная цветопередача.
Да в общем-то и сейчас. Честные 10 бит есть разве что на профессиональных сериях за соответствующий прайс. Честные 8 есть сейчас много где. Ну а за 3 копейки результат соответствующий, как и всегда.
А какой смысл, кроме маркетингового, в 10 битах? Или будет субъективщина, как и с вопросом про 144Гц — «надо вот просто самому посмотреть, насколько плавно интерфейсы работают»?
Вот даже на на самых навороченных SpectraView какой смысл от 10 бит на выходе? Глаз их не различает.
Сейчас большая половина дисплеев (любых) не могут нормально покрыть sRGB — треугольнички охвата впечатляющие рисуют, но там же ΔE в околонейтральных тонах адовые, при этом кривая гамма-коррекции вполне себе правдоподобная — огромная разница с условной 2.2 видна даже на графиках. Т.е. монитор откровенно проваливает тени, или наоборот — не показывает нормального черного, выбивает света, красит среднесерый во все цвета радуги (пфф… точку белого ещё на заводе настраивать, пущай на этикетки «10bit» и «144Hz» лучше смотрят), но всех волнует теоретический охват WideGamutRGB…
Основы любого трактата по цветовоспроизведению гласят «плевать на охват, плевать на точность передачи цвета в насыщенных участках диапазона, главное — чтобы максимально точно были переданы околонейтральные тона». Человек довольно редко сталкивается с насыщенными цветами в жизни и довольно слабо их различает (такова уж физиология). Но маркетинг (довольно серьёзных компаний в своё время, в том числе) взял дело в свои руки и пропихивает хайповое, мало кому нужное нечто (как камеры в мобильных, а ведь взрослая фототехника 10 лет назад уже прошла эту маркетинговую гонку мегапикселей).
Да, 10 бит на входе (в той же матрице фотокамеры) — это хорошо. Это даёт запас по информации для последующего редактирование. Да, именно из 10 бит на входе можно слепить настоящий HDR. Но при чём тут выход?
Глаз их не различает.

Вот не нужно тут, лестницы на 8 битах просто ужасные, глаза не вытекают только из-за дизеринга.
Вот не нужно тут, лестницы на 8 битах просто ужасные, глаза не вытекают только из-за дизеринга.

Эмм… А кто дизеринг делает?
Вы уверены в том, что это у вас постеризация на граничных оттенках (условно «128, 128, 128» и «128, 128, 127»), а не кривая конвертация каких-то градиентов, где «лесенки» бывают между относительно далеко стоящими друг от друга оттенками, просто ну вот сконвертировала какая-то софтина на выходе так криво.
Вот вам для теста картинка (tiff — чтобы профиль прикрепился) — вытекают глаза? А надпись читаема? И это участок цветового диапазона — к которому максимально чувствителен глаз. В самом «глазовытекающем» sRGB, 8 bit… Если у вас на мониторе что-то выглядит более «читаемо» чем это картинка — это не «проблема 8 бит». Значит разрывы между соседними оттенками больше 8 бит, и значит все вопросы к цветокоррекции и алгоритмам. Тут и 16 бит не поможет. Всё остальное плацебо и маркетинг.
А кто дизеринг делает?

Видео поголовно с ним.
tiff

PNG.
Надпись не читаема вообще, покрутил контраст, и да, на местах букв без контраста едва можно разглядеть цветовые пятна.
Дружищще, забейте. Этот мир преисполнен сказочными дебилами. Реализация того же Ву — сильно отличается от какой нибудь другой реализации Ву, это же очевидно, так дурачьки этого просто не видят. :)) Не вижу, не слышу, не понимаю и т.д. — это же инвалиды массово.
Совсем тяжело не заметить реализации линий, ну например в том же GDI и джаве, это же небо и земля. Но для дебилов всё зависит от каких то там 10-12 бит. Ну и что вы хотите от каких-то там массовых пэтэушнегов? Бесполезные существа.
Глаз их не различает.

Ещё как различает, особенно с расширенным цветовым охватом.
Просто мониторы калибровать надо нормально.

Ещё как различает, особенно с расширенным цветовым охватом.
Просто мониторы калибровать надо нормально.

После первой фразы (как раз ошибочной по своей сути), вторая очень смешно выглядит.
Чем больше цветовой охват, тем резче будет переходы между «граничащими цветами». У вас разрядность диапазона цветов (для 8 бит = 17 млн. цветов) будет одинакова что для sRGB, что для WideGamutRGB. Т.е. более широкое цветовое пространство надо «впихнуть» в эти 17 млн. значений (в Lab и его производных вообще будет всё печально — там на яркостную составляющую всего 100 значений, а охват в УФ и ИК улетает). Дальше продолжать?

Именно поэтому и оправданы 10 бит для WideGamutRGB, чтобы переходы между цветами были более плавными.


Калибровка же позволяет правильно замаппить 8-битный цвет sRGB в пространство монитора, и 10 бит тут будут как нельзя кстати.

и 10 бит тут будут как нельзя кстати

А разве нормальная калибровка не правит какой-нибудь аппаратный LUT монитора, где меньше 12 бит это вообще гроб-гроб-кладбище, а на проф мониках вообще 14? Срезать выходной диапазон, правя видеокартой, ну такое себе, даже на 10 битах.

Только если монитор поддерживает такую возможность. В остальных случаях доступно управление LUT видеокарты, преобразующей 8-битный цвет в 10-битные значения на выходе видеоинтерфейса. Это позволяет скомпенсировать огрехи в отображении цветов на непрофессиональном мониторе без потери в разрядности.


Также я имею в виду и такой момент: точное отображение sRGB-изображений на мониторах с более широким цветовым охватом. Если делать преобразование 8 bit -> 8 bit, то часть цветов сольётся, градиенты станут некрасивыми. А вот если видеорежим 10-битный, то такие изображения будут отображаться корректно. Фотошоп, например, умеет в 10 бит (при выполнении ряда условий).

Поэтому надо вообще end2end 32-bit float, а пока к этому не дошли, живём с тем, что есть и радуемся каждой паре битов добавленных на разных участках пайплайна, а то если говорить "да зачем оно в мониторе, если там в лутах теряется, а зачем оно в лутах, если в мониторе всё равно 8 бит, а зачем оно в камере, если всё равно всё в sRGB пойдёт" — то можно вечно ждать друг друга и никаких улучшений не делать :)

взрослая фототехника 10 лет назад уже прошла эту маркетинговую гонку мегапикселей

Это просто было затишье перед бурей. Фотографы пищат от восторга с Sony A7R4 с её 61Мпикс (и пиксел шифтов вдобавок, который позволяет 240 сделать).


Да, 10 бит на входе (в той же матрице фотокамеры) — это хорошо. Это даёт запас по информации для последующего редактирование.

10 бит на выходе из матрицы — это плохо, очень плохо.

Сейчас большая половина дисплеев покрывают sRGB процентов на 90. Ну и посмотрите несколько обзоров 8-битных и 10-битных мониторов. У вторых градиенты всегда плавнее. Так что никакой не маркетинг.

У человека вообще с цветовым зрением не очень. Если сфотографировать монитор с этой картинкой, и накрутить насыщенность у полученной фотографии, то что-то можно разобрать (по крайней мере на моём мониторе).


10 бит больше нужны для градиентов по яркости, а не для цветовых градиентов, которые человек всё-равно толком не видит.

Господа, ну ёлы-палы! Ещё и плюсуете друг друга… Ну хоть немного матчасть подучите, прежде чем в дискуссию вступать!
Человеческий глаз как раз более чувствителен к цветовым искажениям (особенно в области нейтральных тонов — принцип Эванса), чем к яркостным. Именно на основе этой физиологической особенности, в своё время были сделаны софтины для калибровки мониторов (настройки гаммы на самом деле, потому что точку белого можно только физическим сравнением выставить) — обои от RealColor и CLTest. Оба способа, кстати, очень эффективны были. В отличие от той же AdobeGamma, которая настраивала гамму по старинке — за счёт яркостных различий.
И ещё момент — человеческий глаз различает, по разным данным, от 60млн. до 100млн. оттенков. Так что цветное зрение — это та область физиологии, где человек просто не имеет себе равных.
P.S. Если вы сомневаетесь что изображено на той картинке, просто откройте в любом графическом редакторе и сожмите входной диапазон (кнопка «Auto» в Levels или Curves).
Ну хоть немного матчасть подучите, прежде чем в дискуссию вступать

Так вы выражайтесь яснее. Мы не видим разницу между (128, 128, 128) и (128, 128, 127) на мониторе, но, как показывает фотоаппарат, эта разница есть. Кто виноват? Если бы точка белого на мониторе была настроена правильно, то мы бы эту разницу увидели? Или в чём проблема?


И для чего учить матчасть, если я своими собственными глазами не могу различить близкие цвета в области нейтральных тонов, где по вашим словам должна быть самая высокая чувствительность?


Так что цветное зрение — это та область физиологии, где человек просто не имеет себе равных.

У нас три вида колбочек (и то не у всех) и два из них с близкими кривыми чувствительности. До птиц с четырьмя видами колбочек с кривыми чувствительности разнесёнными по спектру нам очень далеко.


Кстати, откуда вы взяли число 60-100 миллионов оттенков?

Ну скажем так — на хорошем, настроенном мониторе человек эту разницу должен видеть. Я, на ниже упомянутой Соньке (да и на многих ЭЛТ-шных Самсунгах) эту разницу видел. «Настроенный» — имеется в виду настройка гаммы (т.е. кривой преобразования входного диапазона яркостей в выходной). Точку белого я никогда почти не настраиваю — препрессом я сейчас не занимаюсь, а для работы с текстовой информацией, стандартные 6500 — мне слишком «холодны». Здесь на самом деле без разницы — происходит цветовая адаптация зрения (ну переключите в настройке с 6500 на 9300 и изображение покажется очень холодным, но посидите так несколько часов и уже 6500 вам покажется слишком тёплым), но только в том случае, если в поле зрения нет опорных цветовых референсов (в темноте будет без разницы, но в темноте цветокоррекцией нельзя заниматься).
Так вот. Правильно настроенная гамма-коррекция позволяет адекватно воспроизводить диапазон яркостей. Т.е. растягивать его там, где чувствительность глаза выше и сужать там, где ниже.
Ну вот, например, цитата из Вики:
В современном цифровом телевидении и цифровой фотографии гамма-коррекция при кодировании позволяет учитывать особенности восприятия полутонов человеческим зрением для повышения эффективности использования глубины цвета. Известно, что в нормальных условиях глаз лучше различает перепады освещённости в тенях, чем в света́х. При отсутствии гамма-коррекции, в светах цифрового изображения кодируется слишком много полутонов, которые неспособен различить зритель. Напротив, в тенях остаётся слишком мало информации, снижая качество изображения. В случае линейного кодирования файлов JPEG по существующей 8-битной системе, неизбежна «постеризация» изображения, когда глаз различает ступенчатые тональные переходы.

Кстати, оттуда же (поскольку имеет отношение непосредственно к теме топика):
Собственная гамма большинства мониторов, основанных на электронно-лучевых трубках, составляет 2,5 и для получения стандартной гаммы отображения 2,2 видеокарта производит дополнительную коррекцию сигнала. То же относится к жидкокристаллическим дисплеям, характеристика отображения которых ещё более нелинейна, чем у трубок.


Так что по идее хороший(!) монитор с правильно настроенной гамма-коррекцией позволит различать такую разницу между цветами. Можете попробовать настроить глазками гамму — загуглите CLTest. И возможно увидите эту разницу. Ну если физиология позволит.
Я же в последнее время даже гамму не настраиваю — я очень много работаю с текстом, а для правильной гамма-коррекции нужно выставлять слишком большие значения яркости на мониторе. Слишком глаза напрягает.

P.S. «100 млн. оттенков» запало в память из детства — «Книга рекордов Гинесса 1993». Там ещё было сказано что человеческий глаз на то время — самый точный прибор распознающий цвет. Следующий по точности — спектрофотометр, вроде бы 40 млн. различал. А потом где-то встречал инфу про 60млн. Ну вообще «за глаза», как говорится. И это не вступает в противоречие с озвученным мной выше тезисом, что честных 8 бит хватит для адекватно воспроизведения цвета. Потому что у человеческого глаза широченный цветовой охват. Т.е. мы различаем и очень насыщенные оттенки, тот самый пресловутый «насыщенно голубой» — который не встречается в природе (чем пользуются дизайнеры), и воспроизведение которого — главное отличие AdobeRGB от sRGB. В принципе похожее положение вещей обстоит со всеми очень насыщенными цветами — мы их различаем, но с гораздо худшей точностью, чем нейтральные, плюс встречаются они очень редко (ну какие-то закаты, например), плюс очень сложно сопоставить различие в насыщенных областях (нет закрепившихся в памяти «референсов», но при одновременном сравнении разница будет видна), плюс появились адекватные способы «впихивания» более широких цветовых пространств в узкие.

P.P.S. Вспомнилась ещё одна особенность человеческого зрения из той же книги рекордов Гинесса — человеческий глаз способен зафиксировать отдельный фотон! Так что «динамический диапазон человеческого зрения» просто огромен. Но это с учётом адаптации.
Просто серый фон. Там вроде что-то написано, но на моих мониторах я не различаю.
У военных много аббривеатур прикольных у них вобще все на 3 буквы :)
Где бы годного ЛСД достать,

топовые деллы, типически, если речь о разумном ценовом. Был неплохой 30" делл и как раз подешевел. Еще можно найти — у него правильное разрешение а не куцее.

А что такое «годный»? Чем то, чего полно в любом магазине не угодили?
От магазинного ширпотреба нет чувства вовлеченности что ли… Но те кто пробовал годный ЛСД говорят что это совсем другое дело!

Тоже на CRT пересидел несколько поколений плоских мониторов. Сейчас пара штук завалялась у родителей. Рабочие. Ютуб на нем смотрят. По характерисикам развертки и правда как дорогущие мониторы обеспечивают. И 75. И 100. И 120. Старая лджиха до 144 гц выдавала. Но игр тогда с таки мощным фпс не было. Ща конечно лень уже со старьем экспериментировать.

За ЭЛТ в принципе нежелательно сидеть с низкой частотой развертки — будет ощутимое мерцание для глаз. Однако и по максимальной частоте на высоком разрешении есть лимит: изображение начинает мылить.
Да, меньше чем 85 уже заметно мерцание, ниже 75 можно легко заработать головную боль.

Сегодня какраз занялся наладкой ПК с ЭЛТ монитором. Линукс только недавно давал установить 85 герц для ЭЛТ монитора а теперь не даёт больше 60. Я вижу как монитор моргает и чувствую как страдают мои глаза. Приходится вырубать его между действиями с надеждой на то что после обновления всё поправится.

с надеждой на то что после обновления всё поправится.

так линукс же, в конфигах же неособо сложно это поправить
Лет 15 назад заморачивался, сейчас конечно уже не вспомню как и где это делается. но не думаю что сложно это всё нагуглить
Больше 85 не ставит. Проверял на старом мониторе: xrandr --output DVI-I-1 --mode 1280x960 --rate 100
Несложно? В то далекое время ЭЛТ у меня был на 15" ViewSonic G55, и как я только этот xorg не пинал, как и чем только не просчитывал параметры — один хрен, запускался он только на каких-то кривых разрешениях, один хрен — в Ubuntu (начиная с 9) было какие-то странные 74 Hz вместо 85 красивых под win… И даже лучшее, что я подбирал — настройки слетали с очередным обновлением. а потом оно вообще перестало настраиваться через xconfig…

В принципе и Linux и VGA поддерживают PlugAndPlay. Так что все должно конфигурироваться нормально.


Но есть нюанс. Интерфейс P&P идет по дополнительных проводов VGA кабеля. А их иногда, у дешевых/старых кабелях нет. Тогда, конечно P&P не работает, а Linux использует самые консервативные настройки, потому что CRT мониторы могут и сгореть если частота кадров слишком высокая.

В кругах любителей компьютерных игр есть люди, которые уверены в том, что мониторы с электронно-лучевой трубкой отлично подходят для игр.

Это проф.игроки, которые КС гоняют при 800х600?
Я их мог «не застать», только если бы УЖЕ умер :)))
Или вы считаете, что мне около меньше 15?
Но не при 100 Гц. Полупрофессиональный SyncMaster 959NF — 100Гц на 1280*960.
Максимальное 2048*1536 на 60Гц.

Помню выбрал его, когла столько же денег стоили 14' lcd, 1024x768 кажется, тоже 4х3

В статье упоминается необходимость совместимых видеокарт с указанием на нвидиа 900 серии, это 2014 год выхода видях. Есть сомнение в том, что современные игры пойдут в 2к в с нормальным фпс. КС конечно не свежая игра, но ведь не КС-ом единым.

Не читаете статью перед комментированием, да?


Максимальное разрешение, поддерживаемое этим монитором, составляет 2304x1440 при частоте обновления экрана в 80 Гц.
Как связано максимальное разрешение CRT мониторов последних поколений и то, что я написал, что проф игроки даже в 2020 предпочитают играть при 800х600? Цитата относилась к «типу» игроков, которые предпочитают CRT мониторы, а не к возможностям мониторов.
да, было время… пиксель меняет цвет и ты с авп простреливаешь на de_dust2 ворота :)
Вы случайно не путаете это с лайфхаком на увеличение hitbox'ов при
соотношении 4:3 больше, чем при 16:9?
А сильно принципиально — в лайфхаке дело или нет? Играют то всё-равно на низком разрешении…

Вам не сильно тогда принципиально, на каких мониторах в принципе играют? 144-244 герцовки у топовых игроков намекают на современное оборудование.
И еще раз: не смотрите на разрешение, смотрите на соотношение сторон. Ни одна цифра в конфигурациях таких людей не бывает случайной. Да и разрешение «низким»

"есть люди" != "все профессиональные игроки" ;)
Но у CRT мониторов были и получше разрешения. Хотя вместо буферизации — теплое ламповое послесвечение люминофора…

«есть люди» != «все профессиональные игроки» ;)

Так я и не утверждал, я спросил — это люди из той же массы? Я сради знакомых геймеров не знаю ни одного, кто бы хотел купить старый CRT, всем подавай новые — 34", 144, закрёглённые :)

Думаю, что это те же люди, что могут слышать разницу в звучании медного и золотого кабеля ;)

А уж какой качественный будет АА в 2304x1440х80 даже представить сложно. Без всякого дропа FPS.
Покупая старый монитор нужно быть готовым к тому, что долго он не прослужит.

Конденсаторы перепаяйте, особенно тот, что в питании строчной катушки.
Экспоненциально. Впервые лет 5 заметно, потом лет 20 незаметно.

Десять лет назад хотел забрать CRT у знакомых в фотолабе. Оказалось при сочных ещё цветах выгорел люминофор в рамках интерфейса.

ЖК тоже страдают от подобного.
Хотя ЭЛТ-мониторах, что у нас стоят на видеонаблюдении, интерфейс выжжен так, что его отлично видно даже при выключенном мониторе.
Если ЖК пострадал, то можно пойти в магазин и купить новый. А ЭЛТ уже нет.
ЭЛТ я могу со своей мусорки пока что выдавать. Хотя их немного осталось.
Старый 20" IBM недавно пошел под видеонаблюдение. Когда-то был хороший и большой, но трубка уже в конец села.

Под рукой сейчас остались самсунг 783df и mag 770pf.
зачем на видеонаблюдение CRT ставить? они же ужасные наводки друг на друга дают когда рядом стоят
а глаза у сотрудников которые на них смотрят тоже бесплатные?
В тех объемах, в которых надо смотреть на эти мониторы, глазам ничего не сделается. На них же никто не смотрит постоянно, а только по срабатыванию алертов.
PS. Я рад бы всем поставить хорошие ЖК — но не за свои деньги. Потому ставлю что есть.
Покупая старый монитор, надо быть готовым к севшей трубке, высохшим конденсаторам, тому, что ваш стол развалится под тяжестью этого монитора, а сам он займёт половину комнаты.
Танцы с геометрией — всякие там бочки, трапеции и «картинка идеальная, но вот уголок опущен».
При этом в больших разрешениях у вас будет наблюдаться мерцание — потому что заявленные 80 герц это меньше даже минимальных 85, не то что желательных 100.
Про видеокарту уже было сказано — современные уже не будут с ЭЛТ работать, VGA нету. А с DVI, по-моему, единицы моделей были.
Конвертор HDMI-VGA добавит задержки — от которой уйти хотите, да ещё неизвестно, как он с частотой кадров и частотой обновления экрана работать будет.
А уж если монитор хранился в подвале-гараже, то его точно надо перед покупкой вскрыть и проверить на состояние плат.

Так что нужны эти мониторы только гикам-старьёвщикам.
VGA нету. А с DVI, по-моему, единицы моделей были.

А какая, собственно, разница? Монитор по DVI будет ожидать аналоговый сигнал (тот же самый VGA), а все современные видеокарты имеют только цифровой выход.

Ну, к примеру, там мог стоять ЦАП и цифровой dvi.
Я всерьез в эту сторону не копал. Знаю только, что были ЭЛТ с dvi.

Я не знаю, возможна ли конвертация DVI-D в VGA на лету, без полнокадровой буферизации.

Должна быть возможна, там непрерывный поток, по сути надо преобразовывать байты в аналог и вставлять строчную-кадровую синхронизацию. Другое дело, реализовывалось ли это?

Между цифрой и ЭЛТ небольшая разница, время обратного хода луча разное, и.е.ипо факту придётся таки буфер городить, как на строчки так и на часть кадра...

ЭЛТ с DVI-D если и были, то что-то космическое как по ценам, так и по редкости. Но, скорее всего, просто не было.
Учитывая то, что DVI появилось на закате ЭЛТ-мониторов, то, думаю, не было.
DVI-A было, но это, по факту, тот же VGA.

Гугл выдаёт какие-то намёки на телевизоры и ЭЛТ-проекторы с цифровым входом, но без конкретики.
Были мониторы с цифровым подключением по DVI.
Viewsonic этим недолго баловался (призводство Acer?). Потом — перестали, ибо незачем.

В статье автор сравнивает старые мониторы с новыми, утаивая, что те старые в своё время стоили 5000 — 10000 $ в нынешних деньгах. Посмотрите, что вы можете купить сейчас за 5000 — 10000 $ с ЖК.
Яблоко подразумевает деление на 2. Если недостаточно, то после 2 дробный масштаб уже не так критичен, как до.
Тю, при таких скромных запросах проблем вообще нет.
Рынок завален 4к мониторами от 22 до 32 дюймов (но оптимально от 24 до 27), которые делятся ровно на 2 и все прекрасно.

Нахрена тут нужен Apple Pro Display XDR, вообще непонятно. Это как обхаять многотонный грузовик, а потом выясняется, что всего-то нужно было несколько мешков картошки перевезти :)

Но вообще говоря, 6016/1920=3.13 — при такой большой плотности дробность коэффициента уже не играет роли, проверено.
Спасибо, уже полгода сижу с 4к 31 дюйм. Ну а Apple Pro Display XDR привели в качестве монитора за 10к баксов, я тут ни причём. Как по мне, стоит стремиться к 8к, но, увы, пока это мне не по карману.
Гугл говорит, что это ретина современная какая-то. 6K.
А совсем не ЭЛТ с цифровым входом.
Думал вы про современные ЖК за 5-10 тысяч долларов спрашиваете, о которых вторая часть комментария.
Не, про первую, про ЭЛТ.
Найти актуальный монитор за 10К долларов особой проблемой никогда не было. :)
www.crn.ru/numbers/reg-numbers/detail.php?ID=4992
ixbt forum

Viewsonic PF77
zoom.cnews.ru/goods_card/character/2117912/viewsonic-pf77
naobzorah.ru/monitor/viewsonic_pf77

www.nix.ru/autocatalog/viewsonic/17-MONITOR-025-ViewSonic-PF77-PerfectFlat_6776.html
Профессиональный монитор. Присутствуют аналоговый (15 pin D-sub) и цифровой (DVI-V) входы. Максимальное разрешение: 1600 х 1200 — для аналогового входа, 1280 х 1024 — для цифрового входа.

Т.е. DVI не dual link.

Диагональ............................17" (43.18 cм)
Видимая область (ЭЛТ).....16" (40.64 см)

1600 х 1200 всё равно лишнее.
Я не думаю, что на 17" цифровой вход давал заметный прирост качества картинки. Ну и действительно, для высоких разрешений его не хватало.
Лучше не предполагать, а знать.
Для хорошего изображения по аналогу нужно подбирать производителя видеочипа и производителя видеокарты. Встройка по VGA редко даёт хорошую картинку, или вообще никогда не даёт.
У Nvidia всегда был дерьмовый VGA выход, и при использовании в/к на их чипах полезнее использовать цифровой выход.
На 17" «качество» NVIDIA уже было заметно. На тех же разрешениях у моей HIS ATI была кристальная картинка.
В 99 году цифровой выход был разве что у профессиональных карт. Которые и по вга нормальную картинку давали.
А когда в ширпотребе dvi появился, найти элт с dvi-i наверняка было проблемно.

Точно был монитор Sony аж с двойным DVI-D. И видеокарты такие были.
Примерно 2000 год.
Разрешение и диагональ точно не помню, а цена около 20к зелени.
На видео монтажном комплексе стоял у знакомых.
Запомнилось, что он грелся очень сильно ...

Ну, за 20К зелени не сложно было и поставить ЦАП в монитор. А так дешевле было использовать нормальный кабель.
У меня лежит нормальный VGA-кабель, толщиной с нормальный DVI-кабель (почти с палец толщиной), 1600×1200 держит без малейших помех и замыливаний.
И да, DVI тогда вроде по полосе пропускания уступал аналогу.
Обычный DVI уступает, dual link DVI — превосходит аналоговую передачу (SVGA).
Ещё был аналоговый BNC.
Покупая старый монитор, надо быть готовым к севшей трубке

Да, в трубках в первую очередь окисляется катод лучевой пушки и даёт плохую эмиссию электронов, по началу можно попробовать дать высоковольтный разряд, в процессе которого «окалина» осыпется с катода и он станет как новенький, но каждый раз как наркоману такая процедура нужна будет всё чаще и чаще, а уже через 2-3 такие процедуры, очередная попытка сожжёт катод и на этом всё.
В моей песочнице проектов есть идея совместить FPGA и ЭЛТ. FPGA нужен для согласнования цифровых интерфейсов и аналоговой части с возможностью настройки. Так же, достав высокоскоростную камеру и настроить нужные элементы для максимальной герцовки. Кнш это всё танцы с бубном, но идея вполне себе оправданная, ибо у ЭЛТ достаточная цветопередача а «мерцание» спокойно подавляется быстрым лучом(который снизит яркость и может мылить)… Единственное что остаётся, найти мониторы с нормальным разрешением и хорошим, не убитым люминофором+трубкой. Хотя просились мысли сделать самому, но тогда это уже «МЕГА» проект.

Это всё на уровне планов, фих знает когда делать начну(деняк нет).
PS Лично мой опыт — Был у меня один «Телек» у которого была частота развёртки +140Гц, но макс разрешение 1024х768 тянул, чтоб текст читался, а так же очень сочную цветопередачу (он оч дорогой был в своё время). Помню, что играть на нём было ОЧЕНЬ приятно, по сравнению с моим квадратным 80Гц LCD монитором, который на компе с win xp стоял. Даже дело не в герцовке, а что в голове не было диссонанса что это «картинка какаято», хотя загнутые углы и проч дефекты аналогово мира, быстро возвращали меня в реальность

Не садится тот тринитрон, не бытовуха. И конденсаторы не дохнут.
Это проф серии стоили бешеные деньги, пару тройку тыщ. Их делала сони, Dell, HP, COMPAQ, IBM (похуже) ну и еще кому то оемили.
Там вообще ничего не ломается. И конденсаторы менять не надо и развертка отлично. Единственно спустя лет 7-8-10 немного садится яркость — но запаса регулировок хватает, а не хватит внутри можно покрутить.
Я себе такие покупал когда инженерные центры списывали. Cобственно это и было основное предназначние.
Но весят как чугунный мост, конечно и место требуют.


Что до регулировок — то геометрия регулируется вся, по всем углам, сверху снизу вдоль и поперек. И развертка до 120 герц. И это все честные герцы. Речь о брендах.
Так же и входы — кроме штатного VGA, отдельно BNC.

Не садится тот тринитрон, не бытовуха… Там вообще ничего не ломается.

Вот не надо про это говорить бывшему (да и настоящему, IBM P200, к примеру) владельцу разных тронов. Всё садится. И брак заводской бывает — у моей соньки в своё время пришлось микросхему отпаявшуюся пропаивать.
садится яркость — но запаса регулировок хватает, а не хватит внутри можно покрутить.

«Садится яркость» — это обычно и имеется ввиду под словами «садится трубка».
Внутренних регулировок обычно надолго не хватает, приходится их выкручивать не один раз, пока и они не перестанут помогать.
геометрия регулируется вся, по всем углам, сверху снизу вдоль и поперек

Только регулировка одной зоны зачастую может потянуть за собой соседние. Выправили уголок — бок изогнулся, выпрямили бок — уголок наклонился. Потому мониторы в магазинах и перебирали придирчиво. И с видеокартой своей ходили, чтобы не с магазинной trio64v+ картинку оценивать.
И развертка до 120 герц.

При 800х600.
Так же и входы — кроме штатного VGA, отдельно BNC.

А толку? Всё равно аналог и надо в него конвертироваться.
И брак заводской бывает — у моей соньки в своё время

Ну, речь не о том, что они в принципе не ломаются. Мониторы сии (в штатах) идут с инжиниринг фарм, где изначально шли с бизнес гарантией за топовый прайс. Что могло быть браком — уже поправили/заменили за те годы. При том, что их делали очень надежно. Что вышло на вторичный рынок — как правило с большим еще ресурсом. И много лучше тогдашних LCD.
Я их брал десятками для бизнеса, те мониторы — у утилизаторов стоили дешево, мы выкупали паллетами.


Только регулировка одной зоны зачастую может потянуть за собой соседние.

Вспоминается nokia monitor test и подобные утилиты от компака. У дорогих мониторов вообще куча настроек, проблем не было. С дешевыми дела не имел — просто не было смысла.


При 800х600.

на 1600x1200 было, если правильно помню. :-) на1920 x 1440 что то герц 85.
Почти все позволяли ставить выше бумажных спеков.


А толку? Всё равно аналог и надо в него конвертироваться.

поглядел — пишут что у моей NVIDIA Quadro K4200 есть vga support через какой то адаптер и те мониторы перекрывает. вероятно как то решается.

у утилизаторов стоили дешево, мы выкупали паллетами.

Только оно давно уже всё выкуплено-утилизировано.
У дорогих мониторов вообще куча настроек, проблем не было.

В моей практике массовых закупок дорогих мониторов не было, единичные экземпляры только. Качество разное. Относительно ширпотреба, конечно, выглядели лучше, но всё равно, плач на тему «не могу выправить уголок» слышал не раз. Не обязательно уголок, но какая-то мелочь, которая мешала идеальную сделать, встречалась не раз.
у моей NVIDIA Quadro K4200 есть vga support

Ну так это тот же geforce 6xx, ничего удивительного, что аналог есть.
У меня 950 стоит — тоже с аналогом. Но эти видюшки для про-геймеров давно не актуальны. А вот десятая серия и всё актуальное — уже только с цифровым выходом.

все это имело смысл лет 15 назад, когда была смена оборудования у больших бизнесов.

У меня на Dell в своё время строчник умер, но монитор конечно был великолепный.
подождите, еще пройдёт лет 5-10 и будут свои ценители VGA-кабелей из бескислородной меди и тёплой ламповой картинки
В CRT-мониторах, конечно, происходят процессы, способные вызывать задержки вывода изображения. Например, определённое время нужно на буферизацию кадра

Стоп. Статья о преимуществах ЭЛТ мониторов, но указан несуществующий в ЭЛТ, но присущий ЖК мониторам недостаток. ЭЛТ как-раз не имеют буфера.

Послесвечение есть у осциллографов. А у ЭЛТ-мониторов оно крайне незначительно. Попробуйте сфотографировать ЭЛТ-монитор с короткой выдержкой.

Пожалуй, да. Послесвечение заметно для глаза падает в течение 1/25 секунды (отсюда бегущая темная полоса, которую видно в старых фильмах, когда телевизор с кинескопом попадает в кадр). Повышение частоты развертки (или применение черезстрочной развертки) решает ту же задачу — чтобы послесвечения хватало на 1 кадр без заметной потери яркости. На сколько хватает послесвечения с заметной потерей яркости — не так просто измерить.
Послесвечение заметно для глаза падает в течение 1/25 секунды

У современных ЭЛТ-экранов время послесвечения измеряется единицами миллисекунд.


отсюда бегущая темная полоса, которую видно в старых фильмах, когда телевизор с кинескопом попадает в кадр

Это связано не с большим временем послесвечения, а с выдержкой кинокамеры. А то, что полоса бежит — с несовпадением частоты кадров съёмки (24 fps) и телевещания (25/50 или 30/60 fps)


На сколько хватает послесвечения с заметной потерей яркости — не так просто измерить.

Это можно измерить любым современным смартфоном, умеющим снимать в 960 fps.
Вот первое попавшееся видео:
https://www.youtube.com/watch?v=NyrcPyZtfMg


Видно, что посвечение есть, но по сравнению с яркостью при прохождении луча оно незначительно.

А это видео демонстрирует другую проблему CRT — при малом времени послесвечения получается стробоскоп. За время отрисовки 1 кадра яркость пикселя очень сильно (скорее всего по экспоненте) меняется. А увеличивать бесконечно частоту развертки не получится.

У современных ЭЛТ-экранов время послесвечения измеряется единицами миллисекунд.

Современные ЭЛТ? Можно пример?
Это уже инерция глаза. А послесвечение люминофора, особенно на мониторах с высокой герцовкой, крайне незначительное (кстати, поэтому именно на них 60 Гц ощущается особенно болезненно).
image
До сих пор иияма вижн мастер про 24-дюймовая пашет.
Никаких бочек, никаких послесвечений и прочей фигни что тут пишут про элт не разбираясь и ни разу не видев моник, стоящий как крыло от самолёта. Это вершина технологии элт, и она на порядок превосходит современное убогое лсд-гавнищще.
У этого моника чёрный — это чёрный. Если вырубить свет в безлунную и бесфонарную ночь — этот моник вообще не создаёт свечения с чёрного. Хоть глаз выколи, разницы нет.
Если это белый — то это прожектор. Блокнотик на весь экран светит так, что хоть беги.
Фильмы на этом монике — это шедевр. Никаких тормозов с пикселами, цвет просто чума. Достаточно рядом поставить современную пагримушьку и сравнить.
Единственное с чем можно сравнить этот моник по цвету — это с афигенной плазмой. Причём конечно же в этом монике нет киношных перекосов.
100-120-140 герц в комплекте.
Лампа сядет, подкрутить конечно же можно, но хватит ненадолго, и что делать когда сие окончательно сдохнет я не знаю. Аналогов нет, и похоже уже и не будет. Печаль.
У меня был такой, но только, кажется, 22 дюйма. Классная штука, там diamondtron вроде был. Мой последний «классический» монитор, пока в дом не ударила молния и он сказал «до свидания». Там диодный мост на входе погорел, но чинить его я не стал. Ностальгировал довольно долго, пока у меня не появился тридцатидюймовый dell, а потом и ноут с 4К дисплеем, и работать стало комфортнее. Прогресс есть прогресс.
Как ветеран секты свидетелей ЭЛТ, могу сказать, что Diamondtron сильно переоценён. В свое время я читал километры форумных тредов с охами и вздохами по поводу его невероятного качества. Потом владел дорогими Lacie и Iiyama на этой трубке, на работе имелись несколько Мицу на ней же. В реальности она ну просто нормальная, а если смотреть относительно её цены, пафоса и сформированных ожиданий — даже посредственная.

Сониевский Trinitron был выше не голову. Причем не обязательно было покупать дорогущий оригинал. Можно было взять вполне бюджетный CTX (были весьма популярны одно время) — они уступали по качеству настройки/геометрии/фичам, но картинка была такой же чистой, резкой и комфортной. После Мицу глаза просто отдыхали, во всех смыслах этого слова.
Аналогов нет, и похоже уже и не будет.

Ну прямо артефакт древней давно исчезнувшей цивилизации. В хорошем смысле.

Ну, так ияма с их элт такими и являются… С огромной грустью и тоской вспоминаю свою 22", которую не решился из-за габаритов перевозить с собой…

В СССР для дефицитных в то время цветных телевизоров, делали процедуру замены катодов в ЭЛТ, отрезали заднюю часть с катодными пушками, катоды заменяли, заново приваривали откачивая воздух. Люминофор то же выгорает, но не так заметно.
А какая конкретно модель? Я думал они только 22" бывают. И какое максимальное разрешение с 120 Гц?
У меня на ноуте 4К дисплей и должен сказать, что это впечатляет — я не вижу отдельных пикселей вообще. Так что с точки зрения игр CRT может и лучше, но в смысле чёткости картинки CRT и рядом не стоял. У меня были хорошие мониторы, но я до сих пор помню как возился со сведением лучей, коррекцией искажений, размагничивал время от времени… Но чётким текст никогда не был, а теперь — как будто новые очки надел. На мой близорукий взгляд плотность пикселей на мониторе не должна быть менее трехсот точек на дюйм для комфортной работы.
Не подскажете хороший монитор, с более 300 ppi? Уже давно хочу себе купить, но либо же цены заоблачные, привет apple, либо же качество желает лучшего.
Нет, я пока что на такой не разорился. В данный момент дома я работаю на 25-и дюймовом DELL UP2516D, который я купил полгода назад за 320 Евро (ну, мне повезло, так то они чуть дороже) и смело могу его порекомендовать. Там хоть и далеко не 300 ppi (он 2560х1440), но нареканий (у меня по крайней мере) вообще никаких. Хотя чёрный мог бы быть и почернее и равномерность чуть получше, но я привык. Кстати, серия DELL «PD» неплохая. Возможно UP2718Q или UP2720Q мог бы посоветовать (и они тоже не 300 ppi, но там повыше разрешение), но там и ценник уже четырёхзначный.

А, и ещё при высокой плотности не все старые приложения это нормально переваривают. Я некоторое время мучился со старыми версиями некоторых специфических программ.
А, и ещё при высокой плотности не все старые приложения это нормально переваривают.

Да и новые в общем то тоже. MySQLWorkbench до сих пор кусок мыла.

А как у автора получилось, что на позицирование луча в CRT нужны микросекунды? Если возьмём частоту 75Hz то в худшем случае на обновление точки на экране все равно же надо 13мс, или я что-то забыл?

Так с этим никто не спорит. Но насчёт микросекунд обновления на CRT автор поднагнал. Хотя может он имел ввиду 13000 микросекунд, тогда все верно получается.

Обновление точки может быть 2 видов: включение и выключение. Для включения нужно, чтобы развертка попала в нужную точку. 13 мс — возможно, что так и есть. А выключение — я не нашел, где это регламентировано.

Я нашел стать где люди меряют время послесвечения люминофора монитора. Получается до 500 микросекунд. Очень неплохо.

Решив купить старый 24" CRT-монитор за 1000 баксов, помни, что он поистине огромен. Упомянутый в статье имеет размеры по полметра с каждой из сторон и весит 37 кг. Я прикинул это к своему рабочему столу, который считал довольно большим, и это очень много.
Долго (года эдак до 2010) просидел на дорогих ЭЛТ-мониторах, когда ЖК были уже мейнстримом. И тоже любил поразглагольствовать про ущербность ЖК-технологии. Тогда, с некоторыми оговорками, это ещё имело смысл. Сейчас — не майтесь дурью, забудьте.

1. Сегодня любой тогдашний монитор (если не стоял запечатанным на складе) уже физически устал и работать будет намного хуже, чем из коробки.
2. Крохотная по нынешним меркам диагональ — тогда 21" было ого-то, а сейчас… серьезно?
3. Непонятно, как подключать.
4. Современный топ уже точно лучше тогдашнего топа.
Речь только об играх. Хотя надо сравнивать с мониторами 144 Гц.
И вот тут кроется корень проблем всей индустрии. Если раньше высокогерцовые экраны были прерогативой киберспорта, игроков в CS:GO и Quake, то теперь 144 Гц есть у любого уважающего себя игрока. 60 кадров остались в далекой древности: сейчас это стандарт для бюджетных «офисных» мониторов, потому что частота в 144 Гц дает ощутимое преимущество.

Описать на словах эффект от высокогерцового монитора сложно, но я попробую: представьте, что все внезапно стало двигаться чуть медленнее и намного плавнее. В движении пропадает эффект размытия и вы начинаете замечать малейшие детали. Вращение камеры вокруг своей оси больше не вызывает дезориентацию, вы продолжаете четко видеть окружающий персонажа мир. На рабочем столе движение курсора теперь намного более явно: если на 60 Гц при резком движении мышью вы зафиксируете взглядом курсор мыши в 5-6 местах, то уже на 144 Гц вы увидите его одновременно в 15-20 точках. На 240 Гц экранах эффект еще более впечатляющий, вы буквально взглядом сможете зафиксировать весь путь курсора мыши на высокой скорости.
А кто вам сказал, что ЭЛТ даст особо высокую частоту? Тогда нормой считались 100 Гц. Существенно выше можно было получить только установив разрешение ниже рекомендованного. То есть можно конечно взять 20", установить на нём 1024x768 и получить герцовку в районе 150-200 — но смысл?

В игры играть — самое то.
Отличие CRT от LCD — не было мыла при работе в разрешении, отличном от рекомендованного.

Это мыло имеет значение для работы, а для игр и кино совершенно некритично.

Вот только CRT-монитор на низком разрешении мог выдавать большую герцовку, а LCD-монитор — нет.

Я не понимаю, что вы пытаетесь доказать?
на низком разрешении мог выдавать большую герцовку
Да, мог. А толку?
Существенно больше герц можно было получить только на существенно меньшем разрешении, которое абсолютно бесполезно в сегодняшней практике.
Но даже если пойти на такие жертвы, эта «повышенная» герцовка всё равно будет меньше, чем у современных геймерских топ-моделей.
Так в чем профит-то?

В современных реалиях — уже нету. А вот пару-тройку лет назад LCD-мониторы с большой герцовкой были не очень доступны.

И вообще не было "рекомендованное разрешение". Этот термин появился только с LCD.

Было. У каждого монитора было 1-2 рекомендованных разрешения с оптимальным балансом размера картинки, зерна и герцовки. Именно так это и называлось.
А у ЖК-матрицы есть просто разрешение, без прилагательных. Когда хотят подчеркнуть отсутствие масштабирования, говорят «нативное». Знаю, «рекомендованным» тоже бывают называют, но это маркетинговый эвфемизм. В жизни так никто не говорит.

Да, верно. Несмотря на то, что мой старый NEC умел в 1600х1200, соседние пиксели при таком разрешении просто сливались. Ну то есть, чисто теоретически, можно было бы применить DPI scaling и получить чуть более чёткое изображение за счёт отсутствия проблем с алиасингом, но страдать от мерцания и низкой производительности. Ну а при 640x480, наоборот, уже было видно отдельные строчки пикселей.

Пес его знает, но мне мой ЖК монитор выдает предупреждение, что разрешение отличается от именно от рекомендованного, если установить кокое-либо другое.

Это в Винде такого термина не было, а в параметрах монитора было написано, по крайней мере, максимальное разрешение, которое он тянет. Что-нибудь типа: 1024x768@60.

Ограничения в виде документированных параметров и предустановленных разрешений в драйвере совершенно не мешали играться с монитором, самостоятельно задавая произвольные разрешения и управляя параметрами развёртки. На многих мониторах можно было уменьшить время обратного хода луча по строкам и столбцам, тем самым добившись большей герцовки при том же разрешении.

Да и сейчас не мешают, правда мало какие могут работать в нештатных режимах.

Ну почему же? Почти любой 60-герцовый LCD-монитор может взять 72-75 Гц. Будет сильно приятнее смотреть видео с 24 fps.


Правда, 120-герцовый монитор будет все равно лучше.

Ну вот мой 60 ГГц 4к больше этих самых 60ГГц не держит. Предыдущий держал 65.

Мой 4K 80 Гц берёт. Если выставить больше, то пишет, что режим не поддерживается. Предыдущий монитор работал на 75 Гц.


Правда, в 4K появляются артефакты — картинка подрагивает, иногда появляются мерцающие полосы. При той же частоте, но при меньшем разрешении артефактов нет.

Есть небольшая вероятность, что артефакты могут быть из-за кабеля.
Обычно в случае проблем с кабелем/портами монитор может отваливаться на долю секунды(это заметно по переключению аудио), т.к. поток цифровой. Картинка либо есть, либо нет. А вот чтобы подрагивала/мерцала картинка, такое только с аналоговыми входами встречал.

Бывает, например, если попытаться просунуть 2K через DVI-D, чей предел ограничен FHD.
Изображение становится совершенно неразборчивым, слипаются как пиксели по горизонтали, так и строки по вертикали.

Кстати, возможна ли такая частота?
Какова теоретически возможная максимальная частота развертки?
Причём тут теория? Смотрите спеки HDMI, DP.
Делают и двойное подключение — 2 кабеля.
Я имею в виду физическое ограничение в ЭЛТ-мониторах, наверное по такой скорости сдвига луча, что на люминофор попадает ровно один электрон.

Это я потому, что речь пошла (понятно что опечатка, но все же) о гигагерцовых частотах
RAMDAC
The highest documented DAC frequency ever achieved on a production video card for the PC platform is 550 MHz, set by BarcoMed 5MP2 Aura 76Hz by Barco.

Для 3840*2160 получим 47,36 Гц частоты кадров при RAMDAC = 550 МГц. Это уже есть (было).
Наверняка можно и больше, но сейчас дешевле цифрой.

Вроде было всё-таки, причём два: 96 дпи и максимальное, которое давало 85 Гц

Отличие CRT от LCD — не было мыла при работе в разрешении, отличном от рекомендованного.
Немного не так, было мыло, в зависимости от частоты обновления экрана, а частота зависила от разрешения, поэтому, как правило, вы могли выбрать 1024x768 в 60 или 75ГЦ, и на 60Гц всё было чётко, но мигало, а на 75 было норм, на 83Гц же всё было в мыле, ну а для 1200x1024 мыло и мигание, и вариантов уже не оставалось :-)
Вот сейчас смотрю на свой LCD 40Гц или 60Гц, по сути ничего не изменилось — хрен вам а не выбор.

Чем выше разрешение и частота, тем выше pixel clock. Но сигнал аналоговый, и на больших частотах его АЧХ может оказаться неудовлетворительной. Например, проблема может быть в плохом VGA-кабеле.

Уж поверьте, я знаю что такое хорошие кабели толщиной с большой палец и гибкий, как шланг под давлением. Возможно у него не подходящая АЧХ, но в продаже ничего лучше купить было невозможно, а мы же о реалиях говорим.
У ЭЛТ был параметр «размер точки». Потому при разрешениях выше, чем было этих точек, вы получите мыло при любой частоте обновления.
Без сомнения, но при этом помимо разрешения, мылилась картинка так же на определённых частотах, причём для разных разрешений это были разные частоты, поэтому, если можно было выставить частоту от 75 до 100, то это было счастье, потому что на одной из них картинка точно будет чёткой, а если в выборе только 60, то ты в пролёте в любом случае.
С частотой все было просто — чем больше, тем лучше. Разве что кратные 50 герц частоты иногда как-то «входили в резонанс» с 50 герцами в розетке. Не знаю физику процесса, но видел при 100 герцах плывущую картинку, которая становилась нормальной при 101 или 99. При 75 тоже подобное видел, откуда и гипотеза про 50 герц.

На 60 герцах тоже можно было иметь четкое изображение, если разрешение монитора позволяло. Оно мерцало, но не мылилось.
В игры играть — самое то.
Отличие CRT от LCD — не было мыла при работе в разрешении, отличном от рекомендованного.

Мыло было на мониторах (это в магазинах его не было).
«Рекомендованное» = наилучшее для этого монитора разрешение было меньше наибольшего поддерживаемого. Повышаешь разрешение — получаешь мыло (размытие). Ещё и видеокарты на высоком разрешении мылили.
тогда 21" было ого-то, а сейчас…

У людей вдруг стало больше поле зрения и угловое разрешение глаз? На 22-то уже не весь экран в основном поле зрения, куда больше.

Глазами двигать в любом случае надо — угловой диаметр области максимального разрешения глаза небольшой. И если на большом мониторе этого достаточно, то на маленьком нужно окна переключать, скроллить и т.п.

Зависит от расстояние до экрана.

У меня 27" вполне себе в поле зрения. А ещё второй монитор сбоку стоит. Иногда про третий думаю. ЭЛТшные же многомониторные сетапы были, мягко говоря, занимающими много места. Особенно если 20" мониторы ставить, а не пару-тройку 15".

image
То, что монитор якобы должен помещаться в поле зрения одномоментно целиком — ложная предпосылка.
То, что по монитору якобы нужно перемещать глаза — ложная предпосылка.

А если серьёзно, то на 27 мне уже очень некомфортно перемещать глаза, приходится доворачивать головой если больше чем на пару секунд.
В аэропорту на табло я сканирую строчки взглядом, а не пытаюсь охватить его одним взглядом.
Даже в кинотеатре, где «окно» одно и на весь экран, мы все равно чаще смотрим в какую-то определенную часть кадра.
Даже по книге формата А5 глаза перемещаются — почти никто не воспринимает страницу/разворот одновременно (кроме единиц, кто специально тренировался).
Даже глядя в тарелку за обедом, глаза все равно регулярно фокусируются на определенных кусочках.

Поэтому все разговоры про совпадения монитора с полем зрения я отношу к маркетинговым байкам, в которые кто-то внезапно поверил.
Совпадение монитора с полем зрения? Это реально кто-то продвигает? Забавно, если так, особенно учитывая, что максимальная острота зрения имеет угол всего 1.5 градуса, а дальше падает в разы каждые пару градусов.

Как вообще люди, которым некомфортно перемещать глаза и голову живут в мире, окружающем их на 360 градусов со всех сторон? :)

"В аэропорту на табло я сканирую строчки взглядом, а не пытаюсь охватить его одним взглядом."


Скроллить строчки мышкой по маленькому экрану не так удобно.

Я вот тоже, давно привыкнув к дешёвым ЖК мониторам, иногда включаю ЭЛТ (Samsung 757NF) и удивляюсь буйности красок и цветов. Ну явно у него цветовой охват шире.
Конечно, на дорогих ЖК мониках для дизайнеров наверняка картинка будет похожая, но у меня такого нет, я говорю про недорогие устройства.

И всё же задорого брать б/у и даже old-new stock ЭЛТ монитор я бы не стал: по моей статистике, они горят довольно часто, в отличие от ЖК. Например, ЖК у меня и знакомых сдох только один (и то там только стало красно-розовое изображение, так он работает), ну и мой нынешний, который пока не сдох, но иногда выделывается, а вот ЭЛТ сгорело штуки 4 разных. Что поделать, детали более сурово нагружены теплом и высокими напряжениями.

А вот если бы выпустили серию новых широкоформатных ЭЛТ мониторов для геймеров и дизайнеров — вот это было бы интересно. Главное — сделать их не такими глубокими как классические мониторы: ведь были же технологии, где пушка светила на люминофор сбоку под углом и за счёт этого монитор был довольно тонкий.
Угол отклонения луча + маски.
На больших углах, луч на люминофоре ни разу не круглый. А их там не один.
Все “тонкие" кинескопы — извращённый плод извращённой любви инженеров с продажниками. Хотябы из-за геометрии: до ближней точки лучу лететь сильно меньше, чем до дальней и там, вдалеке, будет овал.
Я вот тоже, давно привыкнув к дешёвым ЖК мониторам, иногда включаю ЭЛТ (Samsung 757NF) и удивляюсь буйности красок и цветов. Ну явно у него цветовой охват шире.
Конечно, на дорогих ЖК мониках для дизайнеров наверняка картинка будет похожая, но у меня такого нет, я говорю про недорогие устройства.
Цветовой охват ЭЛТ равен плюс-минус sRGB — собственно, под них стандарт и подстраивался. А уж sRGB сейчас любой более-менее приличный ЖК выдаст, профессионального для этого не нужно.
Только на них, то яркие цвета сливаются, то в тёмных деталей не разобрать.
На этот случай настройки есть.
Повторюсь, я имею в виду современные нормальные мониторы. У них таких болячек нет.
> Но производители крупных OLED-панелей до сих пор уделяют основное внимание рынку телевизоров. Сейчас в продаже имеется лишь один OLED-дисплей — 22-дюймовый монитор производства Asus, который стоит $4000.

Неверно, как минимум есть 55" 4k OLED дисплей от Dell Alienware, и есть ноутбуки с OLED экранами.
55" 4k OLED дисплей

Как по мне, это уже телевизор. Я на свой 31 до сих пор смотрю как на немного большой.
У меня сейчас на домашнем ПК 40" Iiyama ProLite X4071UHSU-1 — и это невероятно удобно. После этого экраны 27" кажутся разумным минимумом, а меньше — вообще дверным глазком, в который ничего не влазит. Дело вкуса и воспринятия, видимо.

Ну и рабочий ноутбук у меня с 4k oled — это конечно невероятный экран, и не мерцает, я теперь очень хочу OLED-монитор за чуток более разумные деньги.

А подскажите модель вашего ноутбука? И есть ли ещё модели, на которые стоит смотреть?

Dell Alienware M15 M15-8387, но штука редкая достаточно.
В целом я ориентировался на эту статью и уже искал дальше.

Есть ещё 48" LG OLED48CXR, в котором и G-Sync и 4k@120Hz и игровой режим с минимальной задержкой.
У меня примерно такой LG OLED на 55" — отлично роль монитора для компьютера выполняет.
Хотя хочется, конечно, и панель поменьше размером, чтобы на стол для работы поставить.

игровой режим с минимальной задержкой
Тут важно дополнять, что в этом показателе OLED-ы LG уделывают большинство «игровых» мониторов.

Вот и получается, что для игр нужно брать не древний хлам на вакуумной трубке, а oled-телек.

Купите CRT за 1000. Котэ спасибо не скажет, но будет очень благодарен.
Вот кстати за что любил CRT — сидишь себе, работаешь, а сверху котэ лежит.
Вот кстати за что любил CRT — сидишь себе, работаешь, а сверху котэ лежит.


Видел кота, ухитрившегося примоститься на DELL 2408WFP:

image

Вот на той узкой площадке, что сверху.
Правда, сфотографировать не догадался, не знал, что прогресс у ЖК-мониторов будет настолько быстрым :)
Подумал, подумал об этом, да и сколотил для кота специальную лежанку, установил прямо за моноблоком. Кот молодой, из того поколения, что на тёплых CRT не лёживало. Не показывал ему ничего специально, но на второй день он уже там устроился. И чего я 12 лет ждал?
но на второй день он уже там устроился. И чего я 12 лет ждал?


Это хорошо, если кот.
Лет 25 назад у меня была кошка. Обычно она пристраивалась на мониторе и следила за тем, что я делаю.
Клавиатура ее не волновала, а вот к мышке она явно ревновала.
Кончилось дело тем, что я нашел свою компьютерную мышь обкусанную, исцарапанную и с отгрызенным проводом — на полу, загнанную в самый дальний угол…
С котами подобных проблем никогда не было :)
Бедная недоглаженная кошатина…


Эта кошка позволяла гладить себя только одному человеку — мне.
(у нее было трудное детство — котенком она попала в руки дворовых детей, что они там с ней делали — я не знаю, ее спасла моя теща и подарила нам. Но психологическая травма у кошки осталась на всю жизнь — она никогда сама не выходила на улицу (во двор) и плохо относилась к детям)
Вот по разному бывает. Наш кот очень активен в отношении окружающих предметов и событий, практически, постоянно «занимается научной деятельностью». Кошка же не так любопытна, интересы у неё, в основном, простые — поесть, поспать, привести шкуру в порядок и время от времени замучить до смерти кого-нибудь маленького и неосторожного…
Наш кот очень активен в отношении окружающих предметов и событий, практически, постоянно «занимается научной деятельностью». Кошка же не так любопытна


Они у вас вместе?
У нас тоже была неделя, когда в нашей квартире, в дополнение к упомянутой выше кошке (которая, в общем и целом считала себя хозяйкой дома :) поселился всего лишь трехмесячный кот.

Эта черная зараза отличалась не только умом и сообразительностью — но и откровенно спортивным характером.

Сообразительность кота выражалось в том, что уже к вечеру первого дня он научился открывать любые двери, прыгая на ручку двери (кошка же робко выцарапывала дверь лапкой).
А спортивный характер — в диких прыжках по мебели (вероятно, что его порода тоже произошла от обезьян :)
Затем это гад нашел себе новое развлечение — начал гонять по мебели нашу бедную кошку, которая, между прочим, годилась ему в матери (а то и в бабушки)

Выдержать прыжки сразу двух обезьян не смогла даже толерантная к тещиным подаркам жена — и кота было велено отправить обратно. Посаженный в сумку, сообразительный котяра сумел изнутри открыть молнию на ней (там была небольшая щель для вентиляции) и сбежать по дороге.
(некоторое время спустя в районе его бегства появилась целая популяция черных кошек, на радость всем местным жителям)

Но никакими словами не выразить ту радость и благодарность, что высказала наша кошка своему избавителю от страшной напасти :)
Да, наши вместе, кот пришёл позже. Но нам проще, так как живем в доме, а вокруг пока много свободного пространства. Отношения эти звери, в основном выясняют с чужаками на улице, а не друг с другом на книжной полке.
Ага. Покажите мне ЭЛТ на 4К 144 герц, или хотя бы 2К 144 герц 27". Нету и не было таких ЭЛТ никогда.
Нету и не было таких (кого-то там) никогда.

IBM делала CRT высокого разрешения для медиков — просмотр рентгеновских снимков.
Было раза в 4 больше точек при уменьшенной диагонали. Это выпускалось в больших количествах. В малых можно напаять что угодно.

Насчет размытия непонятно. Во всех современных играх есть программное размытие сейчас (motion blur), даже включенное по умолчанию (но выключаемое в настройках), и без него играть некомфортно, даже на 120 FPS — очень все странно-резко-дергано выглядит, глаза режет.

Не от хорошей жизни это размытие добавляют, а из-за того, что современные игры очень ресурсоёмкие и тупо не тянут даже 60 fps на максималках. Вот motion blur и маскирует дёрганость.

Уверены? Попробуйте в том же doom eternal (он легко выдает 120 fps), к примеру, выключить motion blur. Будет очень странное ощущение. Не дерганость, а скорее ощущение рези в глазах и нереалистичности.

Скорее, дело привычки. Во времена CRT я спокойно играл на 120 Гц в шутеры.

а еще фокусировка и коррекция геометрии, сколько часов потратил стараясь вывести углы и чтобы фокус был приемлемый по всему экрану. А еще магниты крутить на горловине чтобы цвета были равномерные по всему экрану

Если честно, само утверждение


даже на 120 FPS — очень все странно-резко-дергано выглядит

довольно странно выглядит. Ведь высокие ФПС для того и "придумали", чтобы картинка плавнее была...


Обратное мнение у большинства prosumer-геймеров:
motion blur — блевота на экране и отключается в меню ещё до нажатия кнопки "play", как и убожества вида bloom, chromatic aberration, DoF и прочие "улучшатели" картинки.


Ясное дело, что всё это — вкус, и спорить о нём бесполезно, но вот такое мнение у людей, играющих на более-менее высоких ФПС и высоком кач-ве картинки на довольно современных железках. G-Sync и Freesync в помощь, чтобы картинка не "разваливалась"

Это неверно. Motion blur наоборот, требует вычислительных ресурсов, и снижает fps, если оно и так на пределе. Профи геймеры всегда выключают его нафиг. Я не профи, но тоже выключаю в шутерах. ЖК монитор и так мылит, а тут ещё это. Блур даёт кинемотографичность (эмуляция отклика кинопленки на движение) в кат-сценах на движке, там он отлично смотрится. Но в самой игре только мешает.

Motion blur наоборот, требует вычислительных ресурсов, и снижает fps, если оно и так на пределе.
Motion blur — это всего лишь разность между двумя кадрами, просто эффект. Да, вычислительных ресурсов требует, но гораздо меньше, чем на просчёт ещё одного полноценного кадра.

Motion blur — это что-то более близкое к линейному размытию, но никак не к Гауссу.
Да и честного Гаусса никто не считает — достаточно его приближения.

Там очень неприятно то, что добавляется задержка на один кадр (что при и так низкой частоте 30 fps крайне неприятно).

Откуда там берётся задержка? Просто рендерится сразу размытый кадр на основе информации о движении камеры.

Движением камеры между чем и чем? Между текущим кадром и следующим.

Да причём тут вообще разные кадры? Пользователь поворачивает камеру, двигая мышкой, а резко изменить направление движения он не может. Мы тупо берём скорость поворота камеры и рендерим один размытый кадр.

Что значит "между чем и чем"? Вы когда фильтр размытия в графическом редакторе накладываете, к одному изображению его применяете?

Вы когда фильтр размытия в графическом редакторе накладываете, к одному изображению его применяете?

А его можно применять к нескольким?
А его можно применять к нескольким?

Ну судя по вопросу "Размытый между чем и чем?", человек считает, что можно.

Temporal smoothing сложно применить к одному изображению. И бессмысленно.
Но это колдунство немного из другой области.

Так temporal smoothing не является motion blur. Если вы возьмёте несколько резких последовательных изображений и усредните их, то получите не размытые, а эффект стробоскопа. Да и дорого это — рендерить несколько кадров. Куда проще построить один кадр и просто размазать его.

Эм?
Для эффекта стробоскопа кадры должны оставаться резкими и быть идентичными. Иначе вы получите эффект слезящихся глаз.
И, вы не поверите, но temporal smoothing создан и используется для уплавнения движения.


Скорее всего mistergrim вспомнил именно его.

Для эффекта стробоскопа кадры должны оставаться резкими и быть идентичными. Иначе вы получите эффект слезящихся глаз.

Это частный случай.
https://en.wikipedia.org/wiki/Stroboscopic_effect


И, вы не поверите, но temporal smoothing создан и используется для уплавнения движения.

Это когда можно относительно дешёво нарендерить много кадров. А в играх motion blur используется для другого: чтобы замаскировать дискомфорт от низкой частоты кадров.

Кстати, кадр с отверткой отлично иллюстрирует и стробоскоп и размытие )


Ну да. А это разве как-то отменяет тот факт, что не зная механики можно спутать эти два эффекта, поскольку они оба дают смазанную картинку?
Получить дополнительные кадры, кстати, можно блендингом известных в разной пропорции, как это было в старых мультфильмах.
ЕМНИП, первые аппаратные "уплотнители" и "повышатели частоты" как-то так и работали.

Вы наверное не очень агрессивный игрок?) К примеру я в 144Гц успеваю различать пару кадров анимации и понимать что я промахнулся при выстреле. Собственно я тот кто в том же новом DOOM сразу поставил последний уровень сложности и вышел на поверхность за 5 попыток), а дальше было уже просто. (я ожидал что получу опыт как в кваке, но она оказалась какой-то медленной, и я её дропнул после первого босса)
Motion blur — МЕШАЕТ !@#$% разглядеть детали когда ты очень быстро вертишь мышкой. Если играть в «кинцо» или «расслабляющее» то отлично подходит, но только в этом случае.
У меня дома лежит полуразобранный Эппл Синема дисплей, когда я его забрал, симптомы были: не реагирут ни на что и не включается. Так и не сподобился отдать в ремонт.
CRT
image


Как опытный пользователь со стажем, отмечу что среди недостатков CRT будет возможное дрожание картинки, оно может быть даже механической природы (был у меня такой случай, комп вибрировал и от того дрожала картинка на монитре, но это актуально для моников с большой диагональю), сильное изменение размеров белого изображения, отностельно тёмного, неравномерность по оси X (в центре более сжато), разъехавшиеся цвета по углам. Так же, если вы выставите неподходящее разрешение для монитора, то получите очень мыльную картинку, а rgb визуально заметно, то есть видно, что правый край пикселя зеленит, а левый красный, особенно это выражается на краях прямоугольников. Ну и, конечно — мерцание и убитые глаза: изображение рисуется одной точкой, и если люминофор не успеет погаснуть, когда точка в следующий раз придёт на то же место, то это будет фигня, а не вывод картинки, а если она будет гаснуть слишком быстро, то изображение будет мигать, по факту люминофор в трубках делали таким, что меньше 60 герц убивали глаза миганием (а карты могли и не тянуть ту частоту обновления что нужна).

P.S. Ну и, конечно, я пользовался настройками монитора и выбирал только навороченные по этой части модели: там можно было устранять выпуклость вогнутость, делать афинные преобразования, смещать картинку, поворачивать на угол… и всё это не от хорошей жизни, поэтому всё вышеизложенное относится к хорошо настроенному монитору. И да, все настройки надо было делать по новой под любое другое разрешение, надо ли говорить, что игры зачастую работали только в своём родном, а не том, в котором удобней вам, до сих пор помню ту паузу в несколько секунд, когда запущенная программа сменила разрешение экрана и покалывание статики на мониторе…
до сих пор помню ту паузу в несколько секунд

У меня современный 4к переключает режимы по 5 секунд, и умудряется это делать даже с 4к на 4к (возможно, это FreeSync балуется).
Лично мне после перехода на с CRT на LCD стало менее комфортно играть.

Есть LG Flatron 795FT Plus, тоже неплохой моник, но использую только с ретрокомпами, чисто чтобы понастальгировать. Всего 17", но бандурень ещё та).

Как очень старый адепт электронно-лучевой технологии, расскажу немного об ЭЛТшках в плане «картинки», а не «отклика».
Ещё год назад я сидел за Sony GDM-F520 (кто в теме, скорее всего знает эту машину). Разрешение у меня стояло 1920x1440 при 85Гц (очень, кстати, не хватает этого 4:3 сейчас). По цвету да, это было превосходно. Охваты я не замерял, просто гамму и точку белого настроил, все равно в sRGB работал. Контраст — тут вообще всё шикарно. Чёрный просто антрацитовый, для работы «не с графикой» надо было уменьшать яркость (иначе белый просто слепил). Все полутона настолько читаемы (даже в самых глубоких тенях), что легко замечается граница между двумя цветами, даже при изменении одной цветовой компоненты на 1/256. Сопоставимые по качеству цветопередачи ЖК (это, видимо, топовые NEC) стоят невменяемых денег.
На этом плюсы заканчиваются))
Минусы:
Он огромный. Огромный настолько, что просто задача по его транспортировке (а с этими кинескопами надо обращаться крайне аккуратно) становится тем ещё квестом. Вроде 21 дюйм, но на рабочем столе он займёт объём 60x50x50см, где 60 — это глубина, плюсуйте сюда ещё место под клавиатуру и не забудьте оставить достаточно пространства от задней стенки корпуса (греется он прилично, поэтому вентиляционные отверстия там не просто так). Весит он 35 кг. Т.е. даже передвигать его, чтобы протереть пыль — надо крайне осторожно, пластик хоть и очень крепкий, но может просто не выдержать своего веса при неаккуратном «позиционировании».
Резкость. Любая ЭЛТшка будет «подмыливать». Для чтения это даже плюс (не надо с субпикселизацией возиться), но для работы с графикой не очень. В углах может быть совсем страшно.
Геометрия. Тут тоже далеко не всё идеально. Для CAD-систем надо смотреть что-то другое. Ну в принципе это известная альтернатива ЭЛТ: для геометрии — теневая маска, для цветопередачи — аппертурная решётка (для огромного, осевшего по кладовкам парка ЭЛТ-Самсунгов, маркировка будет DF и NF, соответственно (NF дороже)).
Аппертурная решётка — т.е. две горизонтальных тонких нити держащих столбики люминофоров. Привыкаешь быстро, но иногда при работе они смущают.
Сильная зависимость качества изображения от электромагнитых полей. Настолько сильная, что на заводе проф.мониторы отстраивали по ориентации относительно магнитного поля Земли (уже не помню куда именно он должен смотреть). Т.е. даже про самую маленькую акустическую систему на столе можно забыть (а лучше вообще вынести в другую комнату). С проводкой тоже надо разбираться.
Выход на рабочие ТТХ — минут 20 прогрева.
Безопасность. Тут, конечно, из области мифологии, но электромагнитые поля он генерирует очень внушительные. Кому-то может быть критично)) Хлопок при размагничивании, физически ощущается очень явственно (и, отнюдь, не на слух).

В общем, прежде чем задумываться о покупке такого «девайса», советую основательно взвесить все «за» и «против». Тем более что элементная база стареет, электролиты высыхают, люминофор выгорает и т.п. Особенно это касается профессиональных мониторов (ведь тенденция такова, что чем дороже монитор — тем, скорее всего, его «гоняли в хвост и гриву»).
Это может показаться очень выгодной покупкой на данный момент времени, а через пол года окажется просто выброшенными на ветер деньгами.
Сильная зависимость качества изображения от электромагнитых полей. Настолько сильная, что на заводе проф.мониторы отстраивали по ориентации относительно магнитного поля Земли

у SyncMaster 959NF над кинескопом стоит платка с магнитными датчиками, которая вносит коррекцию на магнитное поле.
точняк, если за стеной силовая линия, то изображение будет дрожать
Автор начинает с того, что ЭЛТ мониторы хороши для игр, но где то в середине всего одним предложением упоминает, что современные карты не имеют аналогового выхода. Причём уже лет пять. Как он себе представляет такого упоротого геймера, что готов выложить тысячу баксов за монитор, но играть на нём на старом видео? Весь смысл теряется. И да, конечно были ЭЛТ дисплеи с 140 Гц, но при этом разрешение было где то 1280x800, что конечно несколько смешно по нынешним временам. Также добавлю, что 24" ЭЛТ на самом деле имеет экран размером 22", что опять таки смешной размер сейчас. Но весит он при этом под полцентнера и занимает куб со сторонами в полметр. То есть, даже поднять его одному человеку будет трудновато.

К тому, же пишет, что подходящих мониторов кот наплакал и он искал такой несколько лет.

Так топовых мониторов в природе не так много. А старых, но в хорошем состоянии — ещё меньше.
Существуют активные переходники с DP и HDMI на VGA или DVI-i. Порядка $2 они на Али. Но, те, что мне попадались ограничены 1080 и 60гц, иначе картинку растягивает или обрезает.
Порядка $2 они на Али. Но, те, что мне попадались ограничены 1080 и 60гц, иначе картинку растягивает или обрезает.


Есть и нормальные, полноценные, например такой:

такой, как у меня
image


Но и стоят они в 18 раз дороже.
В описании к Moshi написано, что «до 1080p и 60Гц», что вы подразумевали под полноценностью?

И для DP не посоветуете?
что вы подразумевали под полноценностью?


Это единственный мой адаптер HDMI — VGA, который работает с любой видеокартой и с любым монитором (в любом сочетании)
(У меня есть еще переходники HDMI — VGA Atcom и т.п. — они весьма проблемные).

«до 1080p и 60Гц»


У мониторов с большим разрешением обычно есть не только VGA вход, и для них использование дорогих переходников просто нецелесообразно.

И для DP не посоветуете?


В каком варианте?
У меня есть Moshi Mini DisplayPort (M) — HDMI (F) MO023203 — с ним все ок.

В свое время побаловался с бэушным 21” sony, может для игр он был неплох, но работать с текстом на нем было невозможно-после идеальных пикселей LCD мониторов было трудно настроить картинку так-же идеально. Возможно это был нюанс конкретного экземпляра, но я запарился настраивать геометрию картинки. А вот древняя плазма, к которой подключил приставку по цифровому входу, действительно очень удивила плавностью картинки, хотя там были те-же 60 герц.

А вот LCD-дисплеи, если сравнить принципы их работы с превращением электронов в фотоны, вынуждены физически перемещать жидкие кристаллы, что требует гораздо большего времени и приводит к задержке ввода.

Это неверное понимание работы LCD экрана и ложная причина задержек.
На самом деле, в ЖК экране ничего никуда не перемещается. Изменение картинки достигается путём изменений ориентации молекул в жидком кристалле (вращения) под действием электрического поля, приложенного к нему. И проблема задержек и скорости обновления экрана кроется в скорости разворота кристалла в нужную позицию. Поскольку разворот в нужное положение фиксированным напряжением занимает большое время, так называемое время отклика старых матриц было в десятки миллисекунд. Поэтому очень быстро были разработаны схемы «ускорения» реакции матриц путём подачи повышенного напряжения вместо нужного, для ускорения разворота, на небольшое время. Такой шаг позволил снизить время реакции матрицы до единиц миллисекунд. Первые техники этой технологии были неточны, и кристалл мог развернуться больше чем требовалось, что приводило к искажениям в яркостной и цветовой картине, или это работало только на относительно контрастных переключениях, а на небольших изменениях не применялось (так называемые переходы gray-to-gray, с одного оттенка цвета на другой оттенок того же цвета). В обзорах мониторов в те времена часто акцентировалось внимание на величину погрешности этой функции при различных изменениях яркости. Со временем алгоритмы адаптировались и у современных мониторов даже не всегда есть возможность отключения этой функции, настолько хорошо её отладили.

По остальным пунктам статьи уже прошлись в комментариях, так что можно подвести итоги:
Почему 20-летний CRT-монитор лучше современного 4K LCD-дисплея?

— Потому что не лучше. Сейчас это уже миф.
Но нельзя отрицать, что картинка на ЭЛТ теплая и ламповая.
Отрицаю.
Если настроить тёплые цвета — то да, но можно настроить и холодные цвета.
Ну и что. Картинка всё равно будет ламповая — потому что кинескоп — и тёплая — потому что монитор греется.
В смысле «время задержки измеряется микросекундами»? На CRT мониторе с частотой 100 Гц на каждый кадр уходит 10 мс. Чем то мне это напоминает посты про сладкое звучание 432 Гц.
Я думаю автор имел ввиду, что момент между «принятием» данных о кадре и его «выводом» в ЭЛТ мониторах нету задержки, ибо тот же VGA обеспечивает работу того самого пучка электронов, а не является чистым интерфейсом. В то время для принятия кадра в LCD требуется буферизация, хотя бы для того чтоб не пропускать кадры во время отрисовки.

Кто первый переделает видеоусилители монитора на 6Ж5П и начнёт радоваться "мягким, пастельным тонам"?

При остальных лагах видео тракта задержка на экране это фигня.
Особенно 10 ка с последними обновлениями подкузьмила, даже в полноэкранный приложениях задержки могут быть в 50мс и более.

Был у меня CRT моник очень давно и разница между 30, 60 и 75 Гц была отчётливо видна.

30 герц — это как вообще такое поставить умудрялись? Вон там выше ещё кто-то 40 ставил. Это с черезполосицей?
Да и то, с interlaced у меня в голове почему-то частота в 57 герц крутится. А non interlaced с 60 начиналось.

На Alto ровно 30 Гц было, и люминофор с очень длительным послесвечением.

Легко, в настройках экрана windows xp. Монитор был samsung syncmaster, модель правда не помню.
На некоторых видеокартах такое получалось. Возможно S3 Trio 3D у меня так делала. По крайней мере я её к ТВ подключал. Программой VgaTv для Windows частоты менялись так, что суммированные сигналы синхронизации с VGA понимались телевизором по композитному входу.

Легендарные CRT-мониторы, у которых луч обходил весь экран за микросекунды. Ну-ну.
Ах, да, они были выгнутыми ещё когда LCD на свете не было. Вот у бабушки был телевизор, так у него кривизна была такая, что современным гнутым и не снилось. В другую сторону, но это же шик — экрна, похожий на шарик. А ещё они очень тонко реагировали на магнитное поле.

Почему 20-летний CRT-монитор лучше современного 4K LCD-дисплея?


К слову, о двадцатилетних.
Свой Samsung Syncmaster 950P Plus я приобрел 02.03.2000 г.
(у этого продвинутого девайса, помимо обычного VGA, было еще и подключение при помощи коаксиальных кабелей (RGB (BNC)), кабель спаял я сам)

Но все преимущества этого монитора свелись на нет при простом переезде три года спустя на новую квартиру — коробка, естественно, была утрачена, а нежное перемещение без нее 20 кг устройства габаритами 0,5х0,5х0,5 м — стало настоящим испытанием (в свое время мы без особого напряга таскали в рюкзаках 14" ЭЛТ мониторы для «поиграть по сети», опыт был, но 19" — было уже слишком)

Тем более, что в 2003 у нас еще нельзя было купить отдельную картонную коробку (и тачку к ней) в специализированном магазине.

Этот маленький массогабаритный недостаток, увы — совершенно однозначно перевешивал все достоинства ЭЛТ мониторов.
Ага, а процессоры 20-ти летней давности лучше, чем современные. Остаётся лишь порадоваться за тех, у кого есть куча времени заниматься такой ерундой и доказывать, что CRT чем-то лучше современных мониторов. Я этого не понимаю.
Ага, а процессоры 20-ти летней давности лучше, чем современные


У меня есть ретро-ПК (ASUS TX97-E i430TX /Pentium 233MMX/64 Мб), так на нем Win 98 грузится быстрее, чем 10 на i7-6700 с 48 Гб и Samsung MZ-V5P256BW.

И Офис 97 на нем работает так же резво, как и Офис 2019 на более новом компе :)

Так что все относительно.
Только пользоваться сегодня этим 233ммх уже нельзя. Даже на печатную машинку с трудом потянет.
так никто не мешает печатать в 97 офисе и сегодня, современные офисы вполне старый формат откроют
Передавать куда либо результаты печати придется напрячься ;) https за 20 лет протухло, драйверов для современных принтеров под 98 не делают, exfat не поддерживается, флопики вымерли… Не то чтобы задача совсем не решалась, но придется немного напрячься.
Да это как раз проблема небольшая.
Фат32 никуда не делся, можно отправить почтой или закинуть на сервер.
Принтеры тоже некоторые еще работают. Мой сетевой НР печатает из 98 с каким-то стандартным драйвером. Даже цвет выдавать может.
можно отправить почтой или закинуть на сервер


Сейчас все любят в шифрование. Некоторые алгоритмы шифрования сейчас deprecated, некоторые сертификаты протухли. Возможно, получится, возможно, придется постучать в бубен.

Принтеры тоже некоторые еще работают.
Ну так шифрование почты обычно на уровне почтового клиента реализуется, а не на уровне ОС. В качестве затычки можно вообще свой SMTP поднять — я на работе так сделал для всякого древнего оборудования, которое только по 25 порту голую почту слать может.
На полигоне призраков ещё кто-то проксик писал для того, чтобы старые браузеры могли нормально смотреть современные интернеты.

Про принтеры — НР, которые НР, а не самсунги, обычно до сих пор нормально работают с generic драйвером. Не поддерживают всю функциональность, но напечатать смогут.
А что «некоторые» — ну так всё же 98 винде уже много лет, нельзя от неё требовать, чтобы всё работало.
Ну так шифрование почты обычно на уровне почтового клиента реализуется, а не на уровне ОС


Я про SSL/TLS/корневые серитификаты…

можно вообще свой SMTP поднять


Я о том же. Пользоваться можно, но есть вероятность столкнуться со сложностями. А так вместо печатной машинки можно и Raspberry взять — оно хоть не шумит, не занимает места и энергии почти не потребляет.
И существенно быстрее — кроха распбери быстрее любого пентиума 4, а это уже не 96 год, а скорее 2006 :)
кроха распбери быстрее любого пентиума 4

ну разве что rpi4, потому что предыдущие малинки не сильно то скоростные (у меня на кухне стоит rpi3… лаги интерфейса распбиана задалбывают)
лаги интерфейса распбиана

А они не зависят от используемого оконного менеджера?
а какая разница собстенно? я очень долго сидел на купермайне Celeron-800 и всё работало отлично и в линуксе (во всех популярных менеджерах) и в винде (до висты, когда стало памяти не хватать уже катастрофически)
а у малинки всё залипает постоянно… помню у меня rpi1 еще была, там было всё еще страшнее

конечно я понимаю что если в консоли сидеть то всё летает… но вопрос то не про это.
Ну, например, у меня IceWM на 486 DX4-150 не тормозил, а вот KDE подтормаживал.
На самом деле, мне интересно из-за чего лаги. Памяти мало или видяха тормозная?
у меня IceWM на 486 DX4-150 не тормозил

ну а у меня Win98 неплохо (сравнительно с rpi конечно) на dx4-100 работал… а 95 так прямо летал, а интерфейс там (у 98) покруче был из коробки, чем icewm если его не пилить специально
==
сложно сказать что ему не нравится, я глубоко не копал, он в целом както небыстро работает, его задача у меня крутить youtube (на что ему с трудом сил хватает, но я его, в этом не виню)… бесит когда надо чтото еще запустить помимо
Да, не по всем характеристикам она будет быстрее, да и современные системы стали гораздо прожорливее, распбери реально тормозит. Но и пень под современным линуксом бы аналогично загнулся.
Пентиум4 под ХР будет всяко приятнее для работы, чем rpi под линуксом. rpi4 я не трогал, если что. А вот предыдущие по скорости работы десктопа не радовали.
Согласен полностью, увы, теперь мощности того, чего раньше хватало делать практически что угодно, не хватает даже на то, чтобы пустой рабочий стол без лагов крутить.

Ну и там в распбери ещё много разных узких мест, кроме производительности самого процессора.
Но 97 не откроет современные форматы. Да и офисХР тоже не откроет. Потому печатная машинка будет ограниченная.
Про Office 97 не скажу, но под 2000 точно есть плагины для поддержки 2007 форматов (и чтение, и сохранение), я такой комбайн на EeePC 701 держал.
На 2003 есть. Но под 98 он не работает, а в офисХР я этот пакет совместимости забил молотком, файлы он открывать начал, но так, что лучше бы не открывал.
Оригинал:
image
С конвертером:
image

Да ладно, берёте версию Linux года этак 2000, там запускаете любой блокнотоподобный редактор из комплекта, и всё летает. Правда, с флешками проблемы возникнут.

винда всёже будет подружелюбнее линукса образца 2000 года, я боюсь даже представить масштаб потенциальных проблем с драйверами

В 2000 году были комплекты: диск+учебник. Попунктно повторяешь, и вот всё настроено. У меня вполне юзабельно было на 200 МГц и 32 МБ. Из периферии было: матричный принтер и COM-портовый модем, проблем не возникло. До роста доступности флешек года три-четыре оставалось, а к тому времени вышло ядро 2.4, где они заводились с полоборота.

Только пользоваться сегодня этим 233ммх уже нельзя.


Можно. Этим летом у меня сдох аймак, и под рукой оказался только этот компьютер (он совершенно случайно нашелся в гараже — я писал здесь об этом).

К моему удивлению он оказался вполне рабочим. На нем нашелся Офис 97, который оказался вполне пригодным к делу.
Ну и главное — 98 вполне себе поддерживает флешки, так что проблем с переносом результатов работы в облако на другом компе никаких не возникло.

(печатать нам приходится очень редко — в основном объявления для доски объявлений :)
Имелась ввиду полноценная работа. Какие-то мелочи можно делать.
На полном безрыбье можно даже попытаться воткнуть ХР и по рдп куда-то подсоединяться.

Но разве это жизнь?
Имелась ввиду полноценная работа


Это и была полноценная и довольно срочная работа.
И, главное, никакой веб от нее не отвлекал :)
Для кого-то и набор текста в edit.com будет полноценной работой.
Для кого-то и набор текста в edit.com будет полноценной работой.


В моем случае требовалось соответствие установленным сверху формам.
Как оказалось — за эти годы ничего не изменилось и 97 вполне пригоден для этой цели.

Какая-то странная у вас 98-я. Насколько помню, флэшки без драйверов стали запускаться только в МЕ, а в 98 надо было искать драйвер от производителя флэшки.

Какая-то странная у вас 98-я. Насколько помню, флэшки без драйверов стали запускаться только в МЕ,


Я, к моменту включения сего аппарата — о подобных проблемах давно забыл.
Поэтому просто подключил флешку (на самом деле — несколько разных) и она заработала, что, собственно меня и не удивило.

Но, правда, есть одна тонкость — система была установлена в начале 2000х и когда я сейчас просматривал Autoexec.bat и Config.sys — первым впечатлением было «О, неужели это все я сам составлял и набирал?» :)

С юникодом у него как? Наверное, никак. Может ли он набрать «Myötähäpeä чёрт возьми»?

Ага, а процессоры 20-ти летней давности лучше, чем современные.

Еще лучше теплые ламповые)
Вообще, где-то я эту статью, чуть ли не дословно, читал с полгодика что-ли назад. А ей вылеживаться категорически нельзя. Просто ретроспективно — вспоминаю работу на LCD и CRT за последние двадцать лет… И видно, что у LCD панелей прогресс идет какими-то адовыми темпами. Ибо в десятом году профессиональная TFT панель со скрипом делала нормальную трубку, а бюджетные — были за гранью добра и зла. Года три-четыре вперед — уже сильно получше ситуация. Еще года три — уже можно размышлять про проблемы дешевых панелей с большими диагоналями, а год восемнадцатый — пожалуйста, условный фуллхд на 25 дюймов за 10к будет вполне приятен для глаз…

Чую возникает новое движение любителей теплого лампового изображения. Да наверное отдельные люди видят тот самый "муар" который возникает из за якобы низкой скорости реакции даже современных ЖК-панелей, им действительно ничего не остаётся как купить 10-15 летний ЭЛТ монитор по конской цене и молиться чтобы он прожил подольше. Всем остальным рекомендую посмотреть на чем играют мировые чемпионаты по компьютерным играм и не выдумывать себе проблем

коты точно считают переход на LCD деградацией технологий
image
Лет 9 назад в каком-то чулане на работе нашел огромный 21-дюймовый ViewSonic PT813. Притащил домой, настроил на картинку 1152x864@110 Гц и сидел с ним года 3-4 пока он вдруг не перестал включаться. Продал его за 100 рублей, добавил несколько тыщ и купил LCD) Да, места на столе стало больше, картинка стала чётче, геометрия лучше, но с цветами беда.

В статье странное упоминание про oled который может быть решением, да вот только что-то пока все oled которые я видел (iphone, xiaomi redmi pro, отзыв этот пишу с galaxy note 10+) — либо имеют чудовищные шлейфы на контрастной картинке (на самсунге черный квадрат на сером фоне при движении шлейф в 3! мм оставляет, на ифон почти также), либо жутко мажут картинку при движении. Это у всех трех. Это конечно все смарфтоны, но создаётся впечатление, что будущее не за oled