Открыть список
Как стать автором
Обновить

Комментарии 42

У вас написана большая лажа в разделе про 8 бит. 16 млн. цветов вполне могут дать картинку без переходов, заметных человеческому глазу. Все эти «ступеньки» обусловлены исключительно алгоритмами сжатия, а, точнее процессом полигонизации изображения, и сколько битов для цвета ни выбирай, при одинаковом сжатии ступеньки будут примерно одинаковые.

Ну грубо говоря когда мы динамический диапазон увеличиваем — то шаг увеличивается вместе с ним. Соответственно у нас на старый-добрый sRGB не 8 бит точности, а уже 6 приходится.

Если сжать 10 бит с таким же объемом на выходе, то они все равно до 6 бит ужмутся. Ну а если мы говорим об увеличении потока, то можно и 8 бит с меньшей компрессией сжимать ))
Еще не забываем, что HDMI определённых версий «читерит», сжимая контент с компрессией по 2-пикселя на оттенок (как в NTSC), поэтому либо HDR, либо 4/8k, либо 100Hz, либо компромисс между этими тремя параметрами. Банально bandwidth Gb/sec не хватает (ситуация могла измениться за последние пару лет).
На градиентах бывает очень даже видно.

Да, видно, но эта проблема отлично решается dithering-ом. Человеческий глаз в принципе не способен шум в 1 градацию, особенно на 4K мониторе.


У меня 10-битный монитор, и я не вижу абсолютно никакой разницы между честным 10-битным градиентом и преобразованным 10 bit -> 8 bit + pattern noise.

Как поможет дизеринг в случае такого градиента?
image

Как-то так:



Слева — исходник, по центру — 64 градации + дизеринг, справа — 64 градации без дизеринга.


Если смотреть со 100% масштабом на нормальном экране, то небольшие огрехи по центру видны, но картинка по качеству ближе к той, что слева. И примерно то же самое будет, если заменить 6 бит на 8 бит, а 8 бит на 10 бит.

Теперь видно градиенты + дизеринг.
Но речь немного не об этом. Дизерингом можно и полноцветный JPEG в 256 цветов перегнать так, что только при пристальном разглядывании рассмотришь. Но это уже дополнительная обработка, и фактически мы обманываем глаз, подсовывая ему БОЛЬШЕ оттенков, чем 256 по одному цветовому каналу.

Да, это дополнительная обработка, но она очень дешёвая в реализации. И в итоге утверждение, что для просмотра HDR10 контента обязательно нужен соответствующий монитор, не является верным. Монитор с расширенным цветовым охватом — возможно, но не увеличенной глубиной цвета.


Добрался до своей софтины, построил 10-битный градиент, вот результат (смотреть в полном разрешении):

(сверху — 8 бит без дизеринга, посерединие — паттерн дизеринг до 1/2 градации, снизу — до 1/4 градации)


Тут я ещё и игры с цветом, настолько я знаю, были. Ну то есть если нам нужно добавить 1/4 интенсивности к группе пикселей 2x2, то вместо того, чтобы добавить +1 RGB к одному из пикселей, я добавлял +1R, +1G, +1B к разным пикселям, чтобы результат выглядел ещё равномернее.


P.S. А ту зелёную картинку я в GIMP-е оборабатывал.

Зелёную картинку вы можете обрабатывать вообще сколько угодно, там нельзя изменить ничего — просто нечего и не с чем смешивать, значения канала G отличаются на единичку.

Да, с отдельными компонентами не поиграться. Но ничего страшного, градиент все равно хороший остаётся:


Речь-то не о том, что можно градиент скрыть. Речь о том, что картинка показывает, что восьми бит на компоненту недостаточно, дизерингом мы как раз и сэмулируем условный десятибитный цвет (ничего нового, мониторы давно так восьмибитный эмулируют — 6 бит + FRC; фотошоп, кстати, так градиенты рисует… и всё равно заметно).
Речь о том, что картинка показывает, что восьми бит на компоненту недостаточно, дизерингом мы как раз и сэмулируем условный десятибитный цвет

Именно так.


и всё равно заметно

На 4К мониторе — уже нет.

Нет не могут. И сжатие тут не причём. Хоть есть "мифические" 16 млн. цветов, но если взять конкретный цвет(проще всего красный, зелёный или синий, т.к. всего одна компонента) — то их всего 256 штук, а это уже очень заметно — попробуйте сделать градиент. Только чистый, без дизеринга.
image
В каком именно место заметны цветовые ступеньки? А монитор калибровали?
Вот еще нашел цитату: «По разным источникам глаз человека может различать от 3 тысяч до 10 миллионов оттенков».

А у вас градиент с дизерингом.

Вы правы. Не уследил, что теперь галка смешения установлена по-умолчанию. Тем интереснее.
Вот вариант совершенно прямой.
image
Вообще, видны ступенки в тёмной части зелёного
то их всего 256 штук, а это уже очень заметно

Ступенчатость заметна, потому что меняется не цвет, а интенсивность.
Возьмите теперь, ради интереса чисто цветовой градиент, например, вот:
https://upload.wikimedia.org/wikipedia/commons/0/08/YCbCr-CbCr_Y100.png
И, внезапно, оказывается, что увидеть ступеньки на этой картинке на откалиброванном мониторе может уже не каждый.

Как я понял, с HDR10 умудрились сделать HDReady 2.0, когда вместо 10bit стали продавать 8bit. Поэтому потребовался HDR10+.
его поддерживают практически все производители телевизоров

А как насчёт такого производителя, как LG? Они заявляют, что HDR10+ им не нужен

Потому что они поддерживают DolbyVision. Он то же с динамической метаинформацией. И контента под него больше. Практически все современные кинофильмы сняты в сотрудничестве с Dolby.

Можно запилить HDR10+ через HGIG, не проблема, я думаю. Если тонмаппить на source девайсе… А HGIG отключает тонмаппинг на ТВ…

Не согласен с изложенным.


Во-первых, динамический диапазон человеческого глаза (30+ стопов) не имеет никакого отношения к просмотру изображений на экране, ведь необходимости к адаптации к переменному освещению здесь нет, а статический диапазон глаза ближе к 10 стопам, но никак не 14.


Во-вторых, динамический диапазон современных камер намного выше. Современные зеркалки имеют статический диапазон чувствительности порядка 11-12 стопов, так что можно смело заявлять, что техника видит мир уже лучше, чем глаз. Добавляем сюда динамический диапазон — игры с диафрагмой и выдержкой — ещё 16 стопов, и вуаля — современная камера имеет 28 стопов динамического диапазона и, в отличие от глаза, камера адаптируется к смене освещения за доли секунды, чего нельзя сказать о глазе.


В-третьих, картинка SDR (8 bit) vs HDR (10 bit) — маркетинговый бред. 10-битный цвет даёт большее число промежуточных градаций, а не расширение цветового охвата.


Ну и в четвёртых, 10-битный цвет — штука хоть и полезная, но для его отображения 8-битной матрицы более чем достаточно за счёт FRC и дизеринга.

Planet Earth 2 Blu-ray содержит цвета даже вне DCI-P3, к вашему сведенью. И 10 бит нужны, чтобы картинка не испоганивалась после 3 ступенчатого тон маппинга. Но вы правы, ни битность, ни охват цвета не связан с HDR. HDR это то, как определено PQ / HLG.
Кажется, что это много. Но человек видит куда больше цветов. И все эти некрасивые ступенчатые переходы, которые часто можно заметить на видео и фотографиях и конечно в YouTube, спасибо его фирменному кодеку — это как раз ограничения 8 бит

Нет. 8 бит на канал—это TrueColor и человек видит гораздо меньше цветов, а не больше. Честно говоря не знаю, почему возникает бандинг, но думаю что из-за того что цветовые пространства RGB и XYZ не одинаково покрываются цветами и в TrueColor не хватает цветов в тех места, где их густо в XYZ, зато много цветов там где человек не видит никакой разницы.

Бандинг возникает, потому что человек различает больше градаций яркости, чем может показать монитор. Цветов же это не касается.

Человек видит больше цветов в смысле охвата, BT.709 это всего лишь 33.5% CIE 1931 xy (всех видимых цветов).

А QLED телевизор Samsung Q950T — это QLED подсветка, или QLED цветной светодиод на каждый пиксель?

Подсветка, конечно. Иначе бы его величали micro led, а не банальный и уже приевшийся qled, которого полно в дешевом сегменте.
В отличие от OLED-телевизоров, которые могут выдавать необходимый уровень контраста только при плотно зашторенных шторах.

Интересно авторы OLED телевизоры видели когда-нибудь?
У меня окна в пол и южная сторона, ни разу не было ситуации с нехваткой контрастности.
(Я уже молчу, что контраст это разница между самым светлым и самым темным из воспроизводимых оттенков и он по определению лучше у OLED, т.к. там самый темный это 0)
Я уже молчу, что контраст это разница между самым светлым и самым темным из воспроизводимых оттенков и он по определению лучше у OLED, т.к. там самый темный это 0

Видимо, имеется в виду, что у QLED максимальная яркость выше, чем у OLED (чтоб глаза прям выжигало, наверное?). А чистый 0 может быть только в полной темноте, потому что экран сам по себе не чёрный, и хоть немного света, да отражает.

Ну у LED он тоже может быть 0, если есть зональная подсветка. Но в реальности там, конечно, не 0 т.к. экран не является абсолютно черным телом. И большая пиковая яркость вполне может быть большую контрастность в итоге.
Там будет все равно больше, даже в случае зональной подсветки. Вот если взять двухслойный LCD…
В отличие от OLED-телевизоров, которые могут выдавать необходимый уровень контраста только при плотно зашторенных шторах.

Почему то ожидал увидеть этот комментарий в статье ))


Опять же соотношение контраста у OLED дисплеев бесконечное, так как нельзя делить на ноль :) Но так да, qled ярче. Возможно следущий телевизор будет QLED, потому как сравнительно дешевле, но меня и вполне OLED устраивает, все равно днём телевизор смотреть некогда, получается смотрю только вечерами. Да и не сказал бы, что сильно напрягает "тусклый" OLED экран LG телевизора.

Не бесконечное, просто очень, очень большое. Бесконечное это было бы в случае идеального черного тела, что, конечно, больше теория.

Например, в случае с LG C9 OLED.

Target Max Luminance: 750 cd/m^2
Target Min Luminance: 0.00006200 cd/m^2

>смотрю только вечерами

Оба стандарта BT.709 с BT.1886 или PQ расчитаны на темную комнату. Для HDR пока что вообще не существует идельного трансфера при разном освещении, хотя Dolby пытается со своим Dolby Vision IQ и Samsung с HDR10+ Adaptive.
Я так понял, что HDR в телевизоре и HDR в камере вашего смартфона никак не связаны между собой. Странно, что выбрали уже используемую аббревиатуру, люди будут путаться и задавать лишние вопросы.

У меня 75Q900TS выдаёт более 500 ватт при большой яркости, зимой мне жарко.
А Сони Z9G выдаёт под киловатт на 85 дюймах. Вот она цена большой яркости.

Как я понял, основная проблема заключается что нужно кодировать не абсолютную яркость компонента цвета а её логарифм…
Круто конечно, у самого 75" qled. Есть только одна проблема: нет контента в HDR10+. Самсунг как упертый баран со своим стандартом, на который все производителям стало наплевать. Вроде только Амазон что-то производит под HDR10+.
А вот Dolby Vision контента гораздо больше. Почему не дать возможность купить этот декодер юзерам — не понимаю.

топы это хорошо, но с низу у самсунга яркость 200нит и HDR. самсунг дурит получаетсч или все сложнее?

Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Информация

Дата основания
Местоположение
Россия
Сайт
droider.ru
Численность
2–10 человек
Дата регистрации

Блог на Хабре