Pull to refresh

Comments 34

Это вообще нормально такие картинки до ката делать?! )
До конца рабочего дня час, а тут такая картинка. Слюнки же некуда девать, работать не можем

P/s Картинка с точки зрения фотографии — красота
«Битность» изображения ≠ динамический диапазон! Автор вообще не понимает о чем пишет, смешивая количество бит, цветовой профиль и ДД матрицы в одну кучу.
Говоря простым языком, динамический диапазон (иначе называемый «фотографическая широта») — это характеристика фотоматериала, показывающая, сколько оттенков и тонов способен передать данный материал между тем, что будет считаться стопроцентно чёрным цветом и стопроцентно белым
Фотоматериал (тот самый, теплый, аналоговый) выдаст условно бесконечное количество оттенков. А фотографическая широта — разница между точкой, переходящей в белое и точкой, переходящей в черное, выраженная в ступенях EV.
Битностью нельзя измерить динамический диапазон, согласен. Зато можно наглядно проиллюстрировать, что:

А) Динамческий диапазон может пострадать, если сохранять в JPEG прямо в камере, т.к. потеряется часть данных.
Б) Увеличение ДД приводит к снижению контраста, но контраст можно восстановить.

Но за комментарий спасибо, сейчас уточню формулировки, чтобы вопросов больше не возникало.
Вот насчет (Б) у меня большие сомнения. Именно потому, что битность и широта не зависят друг от друга. Можно снять картинку так, что фотоширота у нее будет в пару десятков EV (например, используя брекетинг), упихать ее в 1 бит и получить безумный контраст — черное/белое и ничего в середине.

Собственно, (А) тоже довольно спорное утверждение. Вполне можно запихать те же 20EV в жпег. Потери будут, но совсем не обязательно в ДД (в вашем понимании).

Строго говоря, надо различать фотошироту (допустимый набор входных значений) и ДД (то, во что эти входные значения отображаются). Вот тогда можно будет говорить о контрастности как о крутизне зависимости выхода от входа.
При равной битности контраст при увеличении ДД будет падать, потому что на каждый диапазон значений будет все больший диапазон яркости и разница между выходными значениями упадет.
Если вы внимательно читали мой комментарий, ДД — это диапазон значений на выходе. На входе — фотоширота. Увеличение ДД — это увеличение разницы между самым ярким и самым темным цветом на выходе. Если ДД увеличить не меняя входных значений, контраст вырастет. Попробуйте напечатать одну и ту же картинку на белой и на серой бумаге. У белой бумаги ДД (разница между чистой бумагой и максимальной заливкой) обычно больше. У какой из бумаг выше контраст?

И, да, битность связана с контрастом и ДД чуть менее, чем никак. Она определяет количество полутонов между границами ДД, но на сами границы не влюёт.
Про «диапазон значений на выходе» совершенно не понятно. Ведь мы можем крутить эту шкалу как угодно — можем загнать всю шкалу RAW в диапазон 64-255 (8-битный), а можем вычесть 64 и получить 0-191. Причём так, чтобы в крайние значения попало одно и то же количество пикселей — скажем, 0.1%. Вы хотите сказать, что ДД в первом случае равен 4, а во втором — бесконечен? Но с точки зрения информации эти варианты полностью эквивалентны.
Нет, как раз в вашем примере ДД будет одинаковый — 192 условных единицы (если, конечно, устройство, на котором отображаются эти значения, линейно).
Это не ДД, а число полутонов. Про линейность устройства вывода я не знаю. Скорее всего, диапазон 0-191 будет получен с gamma 2.2 (или как там она называется), т.е. будет сильно нелинейным от входа. А устройство вывода и алгоритм пересчёта цвета в параметры пикселей (или что уж там будет) этого устройства могут быть какими угодно. Там может стоять хоть честный srRGB (тогда придётся применять обратную гамма-коррекцию).
Если вывод линейный, то 192 — это и число полутонов, и ДД. Случайно так совпало — такие единицы измерения выбрали. На практике, конечно, это значение надо будет пересчитать в правильные единицы и учесть нелинейность вывода. Суть-то не в этом, а в том, что есть два разных ДД: на входе — фотоширота, а на выходе — свойства монитора или бумаги. Второе с первым никак не связано.

Во-первых, между входом и выходом есть совершенно произвольная обработка — перевод RAW в JPEG автоматикой или руками, при котором на выходе могут либо потеряться какие-то входные значения (часть диапазона ушла в белое или черное), либо появиться лишние неиспользуемые (белый стал серым и мы потеряли ту часть выходного ДД, которая выше этого серого).

Во-вторых, само выходное устройство может быть совершенно разным. Даже если мы на первом этапе ничего не потеряли, может оказаться, например, что полученный JPEG нельзя без потерь напечатать на бумаге — нужно либо жертвовать краями, либо сокращать количество полутонов. При этом в обоих вариантах урезания мы получим один и тот же ДД на выходе — от максимальной плотности печати до чистой бумаги, просто в него разными способами отобразятся данные из JPEG, а значит и из исходного RAW.

Разглядывая тот же JPEG на мониторе мы можем увидеть все данные, но подкручивая параметры монитора мы можем запихать их в разные динамические диапазоны — например, высветлить черный и затемнить белый, потеряв в контрасте.
Согласен.
Отдельно есть сенсор камеры. У него есть свой ДД — отношение самого яркого сигнала, не попавшего в максимальное значение к самому тёмному, отличному от шума, и не попавшему в минимальное значение), и своё число полутонов. Он не обязательно равен числу значений АЦП: вполне возможно, что там есть какая-то нелинейность, и, скажем, сигнал в 1000000 единиц даст значение 4095, а 999000 — значение 4094. Тогда формально ДД будет 999000:1. В реальности сенсоры вроде бы линейные, но как они ведут себя на грани засветки, я пока не проверял.
Есть JPEG. В типичном случае он действительно занижает ДД (поскольку часть диапазона RAW уходит в белое), но никто не мешает нам выбрать кривую коррекции яркости так, что в JPEG мы сохраним и тени, и света, но пожертвуем контрастом посередине (и получится очень бледный снимок, как при попытке загнать HDR в 8 бит). Тогда ДД у JPEG и RAW будет одинаковым, но радости это не принесёт.
Ну, и есть устройство вывода со своим собственным ДД, никак не связанным ни с сенсором, ни с форматом. Это дело программы или принтера, как этот ДД использовать.
Только одно замечание:

Тогда формально ДД будет 999000:1


Вы тут, похоже, путаете динамический диапазон с чем-то вроде коэффициента усиления. Или я не понял, о чем вы.
Действительно
Измеряется как отношение величин максимальной и минимальной экспозиции линейного участка характеристической кривой.

То есть, он имеет смысл только для устройств и форматов, у которых есть линейный участок. А к JPEG (в котором уже применена гамма-коррекция) термин ДД просто неприменим. Но это странно.
И что будет, если я применю к значениям, полученным сенсором, обратное преобразование, делающее передачу линейной? ДД увеличится?
Да дело не в линейности или гамме. Главное в этой фразе — слово «экспозиция». Сам по себе жпег не считывает яркости и не выводит их. Это просто набор чисел. Возьмем жпег, в котором одна половина черная (0), а вторая белая (255 для простоты). Нам эти числа 0 и 255 что-то говорят о том, какие именно значения были на входе? Нет. Это могли быть значения с разницей в 1EV, а могло быть 10EV. То же самое с выходом — на мониторе мы получим одни яркости для 0 и 255, на фотобумаге другие, на плохой серой бумаге третьи. Только тогда можно будет говорить о ДД.

А линейный участок — это упрощение, на самом деле в большинстве случаев линейность эта довольно приблизительна. Просто там, где начинается сильная нелинейность, картинка будет искажена и обычно в эти области стараются не залезать.
У меня идея была такая. Допустим, зависимость значения P, выданного 12-битным сенсором, от числа N попавших на него фотонов, такая:
P(N)=min(N,sqrt(16*N)).
Тогда он увидит один фотон (это минимум),
выдаст значение 4094 для 1047807 фотонов
и значение 4095 для 1047808 фотонов и больше (это засветка).
И получается, что максимальная яркость, не являющаяся засветкой, в миллион раз больше, чем минимальная яркость, не являющаяся чернотой. Никакого коэффициента усиления нет, есть только гамма-коррекция.
А, тогда, вроде, все правильно. Я просто не понял, что 4095 — это максимум.
Просто у меня Olympus, и экспериментировал я в основном с ним. Правда, его матрица больше 2800 (или даже 2400) не даёт :(
Вообще-то ваше утверждение, что «дополнительная информация, которая содержится в RAW, позволяет, во-первых, вытянуть весь пересвет в нормальные оттенки без потери качества» — оно весьма спорное, если не сказать, что неверное. Если у вас уже есть пересвет, и в светах вы достигли отсечки сенсора (клиппинга) хотя бы по одному из каналов, то будь там хоть стопятьсот бит — вы его не вытянете, так как там информаци просто нет.
Обычно в RAW снимают с небольшой недодержкой, ибо вытянуть недоэкспонированные тени ещё можно, а вот переэкспонированные света — никогда. Пересветы — имеено то, чего избегают при съёмке в RAW. В ряде случаев, когда тени важнее светов, то можно допустить и переэкспонирование в RAW, но с чётким пониманием того, где пересвечивается (камера это дело показывает мигающими областями на превьюшке).
Про баланс белого вообще ничего не сказано — а это важная фишка RAW файла — там баланс белого не наложен.
Ну и что касается съёмки сразу в JPEG — современные камерные процессоры достаточно мощные сами по себе и выдают вполне приличный JPEG сразу из коробки (взять тот же никоновский Expeed с Active D-Lighting), причём там есть море «тонких» настроек по вкусу. Опять же есть возможность писать на карту сразу и JPEG и RAW (не знаю как у Кэнона, но у Никона — можно). Понравился камерный JPEG — взяли его, не понравился — полезли тянуть ползунки в конвертере.
Вытянуть весь имеющийся на данном кадре пересвет. Спасибо, уточню. Почему пересвет хуже недосвета я писал в прошлой статье.
В Nikon нельзя одновременно и JPEG, и RAW, если включен HDR.
На превьюшке камера показывает пересвет в jpeg, то есть отсечку после применения баланса белого, матриц, профилей цветокоррекции. Поэтому будьте бдительны.
Чтобы увидеть реальный (почти) пересвет, как он есть в RAW, в камере специальным образом (чаще всего путем копирования со специального jpeg'а) должен быть установлен баланс белого. Гуглите по теме UniWB + CameraName.
Но все кадры будут страшно зеленить, так что пользуясь этим методом определения правильности экспозиции, можно смело забыть про jpeg с нормальными цветами.
в RAW-файле содержится информация, напрямую снятая с матрицы фотоаппарата. Никакого шумоподавления, никакой пост-обработки, никаких «балансов белого» и прочих улучшайзеров. Только то, что накопили сенсели (светочувствительные блоки) и информация об условиях съёмки в «сопроводительной записке».

Не совсем верно, а иногда и совсем не верно.
ОЧЕНЬ полезный блог blog.lexa.ru на тему обработки RAW
Давайте сделаем поправку на то, что статья расчитана на тех, кто в RAW вообще не снимал и не знал что это и чем открывать. Это для нас с вами камера снимала с передержкой на 2/3 при виртуальных ISO и потом что-то там досчитала, а нам написала ISO 500 и выдержка 1/100. А для таких людей RAW сырее некуда и не обрабатывался.
Тогда не стоило запутывать людей рассказами про ДД которые довольно не точны (если не сказать вообще не относятся к ДД). А просто объяснить, что информации записанной в RAW больше, чем записанной в JPG. И пока вся эта статья — это рассказ, как её извлечь и записать в JPG самостоятельно не полагаясь на подпрограммы камеры.
Могу посоветовать желающим послушать про ДД длинную лекцию. Но обсуждение ДД там проходит фоном при обсуждении сканирования слайдовых пленок, есть большие отступления на разные темы. Но дает обзорное понимание всей ситуации. Также есть примеры обработки отсканированного, которые вполне справедливы и к обработке RAW. Только делать все описываемое надо в RAW конвертере, из-за разной специфики.

Немного сумбурно, немного не точно, но при этом вполне таки вводно получается. Спасибо.
1. Jpeg тоже можно (и нужно) обрабатывать, если в камере нет RAW. Да, будут квадраты, как в примере, но будет лучше чем необработанное.
2. В статье у jpeg и raw разные настройки в camera raw, поэтому и типа разный результат. Так делать нельзя, это подтасовка.
Не так уж Jpeg и хуже получился — screenshotcomparison.com/comparison/129191 или screenshotcomparison.com/comparison/129192. Да, на фулсайзах видна квадратная постеризация в местах где был пересвет, но в уменьшенном виде это почти не видно.
Sign up to leave a comment.