Как стать автором
Обновить

Комментарии 125

Да этой технологии самое место в видеосъемке — наведение фокуса и глубины резкости в процессе монтажа — это просто фантастика ))
Там и разрешение высокое не требуется.
Представляете себе битрейт такого видео и требования к аппаратным ресурсам при обработке?
Но идея хорошая.
Интересно, кстати, как данные изображения хранятся. И сколько весят.
Если вы о файлах созданных софтом Lytro, то есть небольшая бибилотека на python, которая занимается их разбором.
Веб-версия файлов использует стопку JPEG файлов для каждого значения глубины… Сложно назвать эффективным форматом хранения.
Не так уж и много. Если представить сколько должны весить все кадры FullHD фильма по отдельности — получается огромный объем. Однако сжимаются такие данные очень хорошо. В кадрах Lytro добавляется еще одно измерение для каждой точки изображения. Но в последовательности кадров разница всех параметров пикселя между соседними кадрами видеоряда будет не большой.
Каждый кадр такого видеоролика — видеоролик. Первый шаг в рекурсию )
НЛО прилетело и опубликовало эту надпись здесь
Вообще мне напомнило sony nex-5 с наклонённым корпусом, но всё же lytro выглядит лучше.
Sigma DP2 Quattro
image
Подозреваю, что одна из долгосрочных задач у ребят — сделать это таким же привычным форматом, как сейчас обычное цифровое фото.
Так чтобы, тыкать пальцем, чтобы перефокусировать — было таким же привычным действием, как сейчас листание фоток на любом смартфоне/планшете.
Являюсь владельцем и активным пользователем первого поколения Lytro практически с самого момента выпуска, основными нюансами отметил бы низкое разрешение и активные шумы при ISO >800, так что подожду первых реальных тестов новинки перед покупкой.

Думаю Lytro подведет итоги pre-sale уже в мае, им важно понимать объемы с которыми им придется столкнуться :)
Вторая по сравнению с первой огромная. Не знаю будет ли она выполнять свой прежний use-case.
интересен так же как будет распределен вес ~1кг по корпусу
этож практически эквивалент зеркалки с батареей, но форма подсказывает что без 2х рук не обойтись!
интересен так же как будет распределен вес ~1кг по корпусу

Я бы поставил на то, что объектив будет весить не менее 800г. Такие фокусные при такой светосиле — это не фунт изюма.
По моему это просто великолепно. Если она ещё позволяет произвольно регулировать глубину резкости, а не просто выбирать точку фокуса, то пожалуй даже стоит задуматься о покупке. Единственный объективный минус для меня это её вес и размер.
Если она ещё позволяет произвольно регулировать глубину резкости, а не просто выбирать точку фокуса, то пожалуй даже стоит задуматься о покупке.
Позволяет, об этом сказано (и показано) в видеоролике.
30-250 мм и постоянной апертурой F2

что-то уж очень не верится, хотя если так то будет очень круто
Там сразу два фактора:
1. Упрощенная оптическая система за счет ловли лучей а не плоской картинки (чем создатили гордятся)
2. Мелкий датчик в сравнении с обычными DSLR |-> много шума. (на чем не делается акцент)

Вобще выглядит больше как игрушка, или как инструмент для спецефических областей применения.
Но технология древняя, погуглите «Липмановская интегральная фотография» дело было в 1908…
Выглядит очень здорово! Так и хочется взять и пойти фотографировать! Правда зачем… В чём невероятное преимущество по сравнению с обычной камерой — изменяемая ГРИП и фокус? Можно конечно печатать барельефы, но вряд ли это может стать популярным. То есть я хочу понять, что нового она позволит делать в фото?
НЛО прилетело и опубликовало эту надпись здесь
Разве что она будет стоить не чересчур дороже топовых репортажных камер аналогичных по ISO и шумам. Сейчас они снимают 10 кадров/сек с фокусировкой (Nikon D4), разве этого мало? Да и качество автофокуса у них вроде не ниже 70% удачных снимков?
[если я неправ, поправьте, я всё же не фотограф]
НЛО прилетело и опубликовало эту надпись здесь
Но если камера будет выдавать 1 кадр в секунду, даже при 100% фокусе — это ни куда не годится. В том и суть, что потом с 10 выбирают самый удачный не только в техническом плане но и с точки зрения композиции. При быстро движущихся объектах много фотографий выходят смазаны не только из-за фокуса, играет роль короткая выдержка, а если камера будет шуметь уже на 800 ISO, то такую камеру можно будет брать только при очень ясном днем.
НЛО прилетело и опубликовало эту надпись здесь
А к чему комментарий? ) У моей Nikon D7000 тоже 1/8000, а у любой бюджетной зеркалки де-факто 1/4000. Скорострельность камеры зависит не только он минимальной выдержки, а и от размера буфера, способности камеры обрабатывать и сохранять данные на флешку, и от самой флешки.
НЛО прилетело и опубликовало эту надпись здесь
>Скорострельность камеры зависит не только он минимальной выдержки, а и от…

Скорострельность упирается только в механику: затвор и зеркало, которое должно упасть и дать камере сфокусироваться. Вся электронная часть уже давным давно обгоняет. А флешка вообще дело последнее, т.к. у проф камер есть внушительный буфер.
Минимальная выдержка не очень связана со скорострельностью камеры. Поясню на примере шторного затвора (могу путать понятия, не специалист, но принцип понимаю). Даже после того, как затвор открылся, можно хоть 1 / 20000 секунды освещать отдельные пиксели, просто сделав узкую щель между створками затвора, но шторки при этом будут двигаться медленно, например, 1 / 10 секунды будут двигаться от начала до конца кадра.

Таким образом, имея выдержку 1 / 20000 секунды, нам всё равно будет нужно 0,1 секунды на то, чтобы сделать кадр.

Сказанное выше не учитывает времени, необходимого для подготовки к экспозиции матрицы: экспозамер, фокусировка, убирание зеркала.
Там есть необходимость в фокусировке, к сожалению. Продвинутость камеры просто в том, что она умеет строить карту глубины и по ней уже размывать изображение.
Вы явно не разобрались в технологии съемки светового поля. Никакой карты глубины камера разумеется строить не умеет. Каждый «мегалуч» представляет собой мини гиперфокальный «фишай» кадр содержащий информацию о всем кадре. Из матрицы таких мегалучей поргаммным образом восстанавливается обычное плоское фото, но с возможностью как «честного» перефокусирования в любую точку так и перемещения точки съемки (в пределах размера матрицы).
Да-да, а то, что на результате видна очевидная разница разрешений карты глубин и картинки — это видимо стоит отбросить. И начать про гиперфокальные мини фишаи.
Эта карта — результат последующей программной обработки. Нужный, разве что, для реализации опции «перефокусировка по клику». Да и разрешение 20х20 областей (в камерах первого поколения) явно было бы недостаточно ни для нормального 3D, ни для селективного размытия.
Там и не было ни нормального 3D, ни нормального селективного размытия. На фотографиях неизменно видны эффекты грубо наложенной маски по объекту.
Ну, не знаю. Погулял сейчас по их галерее — везде при перефокусировках размытие получается естественным. Жаль, активных слоёв мало — но это уже издержки постобработки и визуализации. Сделать непрерывную перефокусировку слайдером было бы чересчур дорого…
Давайте прикинем логически. Если литро делает обрезку объекта по карте высот низкого разрешения (вернее, руководствуясь ей — а сама маска налагается по краю чем-то типа magic wand в шопе), то где должны проявиться артефакты сильнее всего?

Они должны проявиться сильнее всего там, где у объекта сложный, неровный край. Теперь быстренько смотрим, какой объект нам выбрать из кучи, чтобы край был неровным и сложным.

Вуаля — lightfield-forum.com/wordpress/wp-content/uploads/2012/07/IMG_0019-stk_image5.jpg
Давайте прикинем. Зачем программе как-то обрезать объект? Она берёт световое поле и отсекает лучи по плоскости, в которой должна была бы находиться матрица при правильной фокусировке. Вот только эти лучи приходят не в пиксели виртуальной матрицы, а в какие попало точки — куда повезло. Так что картинка ещё подлежит обработке. И выглядит она примерно как фотография с типичной мыльницы (старой, 1- или 2-мегапиксельной) после жесткого повышения резкости.
Если бы использовалась карта глубины, мы видели бы крупные ступенчатые артефакты, примерно как у jpeg при очень сильном сжатии (хотя и другого вида — как граница чёткости).
Крупные ступенчатые артефакты мы тоже видели, в ранних сэмплах. Это было неприемлемо. Потому область объекта дополнительно программно уточняется, что позволяет относительно прилично отобразить гладкий край, и совсем не прилично отобразить ломаный, что в приведенной выше фотографии отлично видно.
начинает звучать соблазнительно. Особенно в макро, где вечно не хватает двух вещей — широкой дырки и глубокой глубины резкости. если оно способно мух муху в 3/4 снять на портрет с полностью резкими усами и лапами — беру.
Она умеет размывать, а не восстанавливать ГРИП :)
То есть по-умолчанию оно все резко?
Нет, по умолчанию оно снимает как дюймовая камера с F2, то есть в макро всё равно будет не очень широкая ГРИП, примерно как на дешёвой зеркалке при дырке 5.6.
И вытащить в резкость то, что было не резко в момент съёмки не получится? Печально.

Зачем тогда эта камера?
Как зачем? Чтобы сделать размытый фон там, где его изначально не было. Снял портрет на фоне помойки — размыл фон — гламурненько.
То есть практической пользы никакой. А я надеялся… Ладно, спасибо за информацию.
Теоретически, сфокусироваться на нескольких десятках расстояний и вытащить соответствующее изображение с каждого из них было бы возможно (а потом собрать в резкий объект вручную). Но вряд ли их софт это позволит — в первом поколении они давали максимум 12 точек (причём программа сама решала, сколько и каких расстояний получать). Реализуют ли они нормальный «All in focus» (да и возможно ли это теоретически), непонятно. А резкие фотографии, которые получаются, если нажать кнопку и «крутить» изображение — это действительно как десятки снимков, сделанные одновременно с нескольких точек с f11 или около того.

Вот какая-то муха. Не очень впечатляет… pictures.lytro.com/bamidon/pictures/792885
Это первое поколение или второе? На фотографии пчела, которая поболе мухи будет, и так порнушно даже моя первая мыльница не снимала.
Первое, конечно. 10 мегалучей. Думаю, что это, всё-таки, муха-журчалка — самый подходящий объект для макросъёмки, особенно новенькими мыльницами…
Не похожа она на журчалку. Волосатая спина и ноги — у журчалок полоски есть, но глянцевые.
Стереопара из этой пчелы хорошая получается :)
И вытащить в резкость то, что было не резко в момент съёмки не получится? Печально.

Вы, видимо, не занимаетесь макросъемкой. Как и человек выше, который жалуется на большую ГРИП. На самом деле самое лучше макро снимается на достаточно открытых дырках, чтобы получить максимальную резкость по центральному полю. А далее все собирается специальными программами (тем же photomerge в фотошопе).

Это позволяет добиться отличной резкости и качества. Только в случае обычной фотографии вам надо будет сделать 100 кадров, а тут — всего 1, лишь потом меняя зону резкости в программе. Что дико удобно.

Лично я, как про-фотограф, это ценю.
Теорию процесса я знаю. Тут проблема, что не всякая муха позволит себя снимать в цать дублей в неподвижном состоянии.

Если эта штука способна за один кадр собрать резкие картинки с каждого слоя — ура, ура. Если нет — нафиг-нефиг.
Эта штука получает по сути два кадра. Один — картинка, другой — карта глубин. Из карты глубин можно взять маску для наложения размытия.
Эта картинка, без карты глубин, она насколько резкая на малых расстояниях? Обычная дырка f/2?
А вот это надо будет ещё смотреть и анализировать, когда к нам поступят уже пользовательские камеры и сэмплы. Я написал, что знаю именно про технологию lytro. Соответственно, в реальной камере может быть что угодно — начиная от дырки 3.5-5.6 и построения «эквивалентной FullFrame F2» и до настоящего F2 во всём диапазоне, но незажимаемого, чтобы пользователям не пришлось мучиться с двумя диафрагмами разом.

Само-то F2 с таким диапазоном на дюймовом сенсоре — это более чем круто, погуглите Sony RX10 например, у неё та же цена без всяких пленоптических сенсоров и с постоянными не F2, а 2.8 при близком диапазоне.
К сожалению, матрица принимающая изображение здесь всего одна, так что одним кадром не обойтись совершенно.
Вся суть технологии Лайтро в том, что в одном кадре у вас множество кадров. Для того, чтобы построить качественное макро. делают множество снимков с фокусировкой на разные объекты, соединяя потом области в фокусе. Тут вам не нужно делать подобное, так как один кадр позволяет сделать перефокусировку. Вам остается только всё соединить вместе программно.
Разумеется можно как перефокусировать, так и вообще убирать расфокус иначе технология не имела бы смысла. Мало того при съемке макро возможно довольно значительное перемещение точки съемки.
Тогда мы возвращаемся к «хочу».

Впрочем, я подожду обзоров от макрушников.
Разумеется, аргумент «иначе технология не имела бы смысла» изначально ошибочен.
это не так
Ну наконец-то написали, а то сплошное анонимное минусование. Ну вот почему вы думаете, что это не так? Предыдущая камера работала с картой глубин, ни о каких сверх-дополнениях к новой модели не слышно, тем не менее вы пишете, что это не так, разумеется, без каких-либо пояснений.
Не нужна ей карта глубин, так же как видео-камере не нужны векторы движения обьектов в картинке. Карта глубин — это уже результат пост-обработки для удобного восприятия человеком.
Карта глубин — это промежуточный результат. Результат пост-обработки — это уже размытие по маске.
Один фиг, камере не нужна карта глубин как таковая. Ее можно восстановить из информации, и что-то потом с ней делать, да. Но самой камере она вообще не уперлась.
И ваше утверждение:
Эта штука получает по сути два кадра. Один — картинка, другой — карта глубин. Из карты глубин можно взять маску для наложения размытия.

Неправильно, ложно, и вредно для понимания принципа работы. Карта глубин — это то, что получает гугловская камера на телефоне, и делать с ней можно действительно только две вещи — псевдо-стереопанораму(сдвигая слои глубины относительно друг друга) и «правильное» органичное бокэ(а не то, что сейчас в инстаграмме в качестве фильтра).
Эта камера дает исходной информации на порядок выше, и действительно теоретически позволяет восстановить резкость в любой части картинки. Будет ли эта функциональность доступна, или они сделают как в первой версии — увы, не нам решать.
Похоже на то, что это уже что-то религиозное: считать, что за реализацией отлично видимого и выводимого на чистую воду трюка есть что-то большее, пусть и не определимое.
Прочитайте мой комментарий выше, я там попытались реально на пальцах и в двух словах объяснить принцип работы лайтфилда. И карта глубины — это скорее побочная возможность технологии, нежели основаполагающий принцип на котором она базируется.
Карта глубины — это принцип, по которому обрабатывается в результате картинка.
И как она обрабатывается, расскажите?
Уже несколько раз в этих комментариях описывал. Делается маска объекта на основе карты глубин и анализа разницы в контрасте областей. Отдельные объекты разбиваются на слои. Слои размываются с разной силой, максимум 12 слоёв поддерживает камера.
Хорошо. Нашел два довода: за, и против.

Против:
pictures.lytro.com/lyt-45991000260093/pictures/793583
Почему кадр не изменяется при нажатии на машину и на колеса? В соотвествии с картой глубин они находятся на разных уровнях, но машина и колеса находятся на одном «слое», в отличии от неба.

За:
pictures.lytro.com/bamidon/pictures/792890
Явно виден фокус на первой надписи, все остальные не в фокусе. Почему невозможно сфокусироваться на дальних надписях, если в распоряжении камеры вся информация о лучах, в том числе и о правильно сфокусированных.
В первом случае дальние объекты просто не получилось выделить. Если бы использовалась обычная система с двумя объективами (второй только для построения карты глубин), то я бы сказал, что просто недостаточен параллакс, чтобы выделить отдельные удалённые объекты от фона. С Литро немного сложнее, т.к. они пытаются очень сложно и наукообразно описать свои внутрикамерные преобразования, но природа должна быть примерно та же — сложность выделения объектов близких к бесконечности.

А бесконечность для такой крохотной базы должна начинаться довольно близко. У новой камеры с этим наверняка будет лучше.

Во втором случае как раз то, о чём я тут несколько раз говорил: если камера всё-таки получила на макрокартинке своё настоящее размытие, то никак восстановить размытое без дополнительных кадров уже не получится. Размывать мы можем — восстанавливать нет.
а движущиеся объекты она снимает или только неподвижные сцены?
Для фотографии смена фокуса это все таки балавство, а вот для съемки видео это золотое дно. Очень бы хотелось, что бы в третьей версии это как то реализовали.
Особенно востребовано будет в охранных системах. Опять же, митинги можно снимать…
А в охранных зачем? Туда же ставят системы с большой ГРИП, смысл там фокус изменять — весь кадр и так в фокусе.
Насколько я помню светосила 2 при фокусном расстоянии 250 мм должна обеспечиваться диафрагмой размера 250/2=125 мм, то бишь отверстие 12.5 см диаметром. Где оно в таком объективе непонятно…
Поправьте если не прав, но что-то здесь не так…
НЛО прилетело и опубликовало эту надпись здесь
Более чем уверен, что «зум» у нее программный, начиная с какого-то фокусного расстояния.
Не, «зум» как раз таки аппаратный, правда на возможности «перефокусировки» он дико влияет…
Им ничего не мешает сделать оптический зум до, скажем, 135мм, а дальше — программно. И я не буду сильно удивлен, если окажется, что так и есть :)
250мм эквивалентного фокусного для дюймовой матрицы — это ведь всего 85мм.
250мм ЭФР. Если там сенсор 1", то реальное ФР что-то около 90мм
Такие камеры вполне подойдут для различных систем видеонаблюдения и охраны. Например в торговых залах, банках и т.д. — что то произошло и можно потом рассмотреть детали и возле камеры и в дальнем конце зала.
Такие камеры никуда не пойдут, посмотрите на фотографии сделанные серийными литрами, их качество на уровне первых мобилок с камерами!
Да, можно в какой-то степени менять фокусировку, но опять-же достаточно дискретно и со странными артефактами.

Фигня в том, что аффтар делал свой дипломный проект на базе камеры PhantomHD у которой мало того что разрешение дикое, но и сенсор практически 70мм, а для пленоптической системы, где линзовый растр сегментирует сенсор, геометрический размер сенсора, что базис в стереосъёмке! И дюйм тут погоды не сделает, камера как была так и останется уродиной…

Похожие комментарии я читал году в 97 относительно цифровых фотокамер.
Может нужно читать имя выходца Стенфорда как: Рен Энджи?
Я просто предполагаю. Видео не смотрел.
поворачивающийся 4-дюймовый видоискатель

Это называется «экран».
Надо этому типу камер новое название придумать а то пленоптическая читается как пленочная
Блин, дорого! Первая модель вполне нормально, но $1,6K это очень дорого, я считаю. Не хочу сказать, что она не стоит своих денег, но я не уверен, что качество снимков будет соответствовать снимкам обычных камер этого диапазона, даже если скинуть треть за «оригинальность идеи и все такое». Но с тем, что это чертовски круто, я спорить не могу
Ну это первая латфилд камера, которая похожа на камеру. Будем платить — прогресс двигать то надо :)
А может кто-нибудь пояснить, как можно снимать в стерео без использования пары разнесённых в пространстве сенсоров?
Поскольку после съемки возможно перемещение точки съемки в пределах размера матрицы, то максимальная стереобаза как раз равнв размеру матрицы по горизонтали.
Это очень мало для сколько-нибудь качественного 3d.
Смотря для какого. Например для макро или микро, где размеры объекта съемки меньше размера матрицы может оказаться более чем достаточно. Кроме этого в будущем наверняка размеры матриц подрастут.
И еще. Обычно для съемки стерео используют пару камер или камеру с двумя объективами. Во втором случае проблемным оказывается ситукация когда нужно сделать маленькую стереобазу, поскольку физический размер объективов не дает их приблизить дуг к другу. Обходят это весьма дорогостоящими, неудобными и съедающими половину светосилы ригами, когда камеры закреплены под 90 градусов друг у другу и съемка идет через зеркало 50% прозрачности/отражаемости (так же весьма дорогое). Лайтфилд камера в таком случае не имеет этих недостатков.
Lytro используют базу, равную размеру объектива. Для каждого «луча» им известно, в каком месте он вошел в объектив. За счёт этого можно получить и стереопару (причём в любой ориентации — как горизонтальную, так и вертикальную), и чёткие снимки (берём только лучи, пришедшие из центра — но эффективная апертура при этом уменьшается в несколько раз, собственно, эффект тот же, как если бы мы зажали дырку на обычной камере). И всё это делается за счёт физики, без построения «карты глубины». Да и для перефокусировки карта глубины не нужна — просто для разных фокусов изображения с микролинз сдвигаются по-разному. А вот само построение карты глубины требует определённой эвристики, как в алгоритмах автоматической фокусировки.
Да, тут я возможно не совсем прав. До этого имел дело с лайтфилдами у которых матрица больше объектива и почему-то считал, что именно ее размер диктует максимальный размер стереобазы.
Если матрица больше объектива, это может расширить поле зрения, но никак не стереобазу. Ведь любой пойманный луч должен, прежде всего, попасть в объектив.

Интересно, где они ставят матрицу. Если она находится в фокальной плоскости, то в случае съёмки далёких объектов каждая микролинза даст однородную картинку (все лучи с данного направления сфокусируются в её центре), и разрешение итоговой картинки будет равно числу микролинз — остальные лучи будут потеряны. А для пользователя направление важнее смещения (поперечное разрешение важнее разрешения глубины). Не находится ли матрица ближе к объективу, чтобы ситуации с фокусировкой не было никогда?
У тебя есть картинка и расстояние до объектов (карта глубины). Ты просто делишь изображение по карте глубин на слои и эти слои сдвигаешь тем сильнее, чем ближе они к камере. Вуаля — получается псевдо-3d.
Почему «псевдо»? Вполне себе 3d. Просто точность этого 3d должна получиться весьма посредственной.
Потому что во-первых, каждый слой при этом получается плоским, а во-вторых, ну какое реальное 3D, если мы не можем развернуть сцену как хотим? Это просто уловка, заставляющая 2D изображение выглядеть как 3D.
А если вместо «3d» сказать «стерео»? Тоже будет псевдо?
Стерео — есть, факт.
> каждый слой при этом получается плоским

это, очевидно, зависит от технологии — действительно ли они снимают слоями; исходя из названия статьи, я бы подумал, что они строят непрерывное поле.

> ну какое реальное 3D, если мы не можем развернуть сцену как хотим

Любая технология, включая лазерную голографии, требует съёмки объекта с нескольких сторон (очевидно, что нельзя построить 3д-изображение задней стороны объекта с одной точки съёмки). Так что оно настолько же 3д, насколько и все остальные технологии.
Слои получаются из-за того, что иначе очень тяжёлый массив данных получается для обработки. Ну и плюс из-за того, что карта глубины имеет сильно более низкое разрешение, и на каждую точку её просто не хватит.

На счёт 3D — да, если хотим настоящее 3D — надо строить модель с гораздо большего количества точек. Но это будет 3D, настоящее.
Описанная вами технология понятна и довольно проста, за исключением того, что камере нужно уметь измерить расстояние до объектов в каждом пикселе. Это весьма нетривиальная задача и пред ставленная тут камера, как и 100% других известных на рынке камер делать не умеют. Так что ваши домыслы не имеют никакого отношения к тому как фактически работает лайтфилд камера.
и представленная тут камера, как и 100% других известных на рынке камер делать не умеют


А как же Swiss Ranger??? Уже шесть лет, как на рынке…

www.mesa-imaging.ch/products/sr4000/
Каждый пиксель не нужен. Так же, как мне не нужно измерять расстояние в каждом пикселе, если я просто делаю маску объекта, вырезаю его и размываю фон. Да, в результате получаются артефакты (размытие краёв например) — но именно эти артефакты массово видны на снимках с литро.
Не понимаю почему вы так упорствуете уверяя нас в том, что litro использует какую-то другую технологию, нежели они заявляют. Так же не понятно как при указанной вами технологии получаются гиперфлкальные снимки и происходит смещение точки съемки, когда из за краев ближестоящих объектов начинают быть видны скрытые прежде части более отдаленных.
Боже мой, да не используют они другую технологию — это попросту наукообразное описание формирования синекдохи отвечания. Если человек не привык анализировать информацию, то конечно, может показаться, что я говорю о чём-то другом.

Я уже много раз написал: смотрите, вот тут свидетельство, что оно работает именно так. Объяснял, что не так и как обрабатывается каждый снимок. Чего же боле? Вы ведь даже проглатываете наличие традиционного объектива в камере — нет, дескать не интересно, сказали «световое поле», значит световое поле. Вы видать и с торсионными полями дело имеете.
Да объектив может и такой же, но не забывайте про массив микролинз. Это по-вашему не имеет отношения к объективу? Артефакты про которые вы говорите связаны с недостатком разрешения. При одной и той же матрице, чем больше микролинз, тем выше 2д разрешение конечного снимка, однако и тем ниже разрешение каждого отдельного «мегалуча», который представляет собой как я уже говорил мини гиперфокальный фишай. Качество всех дополнительных возможностей, которые дает лайтфилд напрямую зависит от разрешения «мегалуча». На siggraph 2009 был отличный цикл лекций на эту тему, организованный MIT и где мне посчастливилось побывать. Материалы можно тут посмотреть projects.csail.mit.edu/photo/
Массив микролинз разумеется не имеет отношения к объективу — он же на матрице. Причём микролинзы много кто уже использует с разными целями.

Беда в том, что вы начинаете говорить о технике в отрыве от её использования. А этого делать нельзя. Потому что понимания в этом случае не будет в принципе.
Микролинзы в данном случае являются частью оптической системы. Попробую еще раз на пальцах объяснить вам отсутствие «торсионных полей». В традиционной цифровой фотографии луч который вошел в объектив в иделе попадает только на один пиксель на матрице. Чем меньше он при этом размывается, тем более резкое изображение мы имеем. Пискель фактически представляет из себя один сенсор матрицы (то что сам сенсор по факту может из нескольких состоять мы опустим, так как это восновном имеет отношение к цветопередаче). У лайтфилд фотоаппарата пиксель это некоторая площадь сенсоров под одной микролинзой. Назовем его доя простоты «суперпикселем», а изображение которое формирует одна микролинза это и есть тот самый мегалуч. В середину «суперпикселя» попадает тот же луч, что и при традиционной съемке, а вот в поле вокруг него микролинза собирает все остальные лучи из всего поля зрения объектива — тот самый мини фишай. Соответственно мы получаем, что все лучи вошедшие в объектив попадают на абсолютно все «суперпиксели», только слегка по-разному в зависимости от того где «суперпиксель» на матрице расположен. А дальше в дело вступают алгоритмы, ссылку на которые я давал в предыдущем комментарии. И конечно чем больше информации суперпиксель содержит (чем оно больше по разрешению), тем более качествеными получаются все интересные нам эффекты. Конечно в ситуации когда нужно балансировать между разрешением одного мегалуча и общим их количеством в пределах доступных максимум 40 мегапиксельных матриц, говорить о хорошем качестве результата преждевременно. Лайтфилдам нужны гигапиксельные матрицы по-хорошему. Но в условиях когда традиционное цифровое фото пришло почти к концу гонки как мегапикселей, так и ISO — лайтфилд это хорошее будущее для фотоиндустрии.
а вот в поле вокруг него микролинза собирает все остальные лучи из всего поля зрения объектива — тот самый мини фишай. Соответственно мы получаем, что все лучи вошедшие в объектив попадают на абсолютно все «суперпиксели», только слегка по-разному


По-моему, чуть-чуть не так. На микролинзу попадают те же лучи, которые в обычной камере попали бы на соответствующий участок матрицы, и только они. В обычных условиях каждый луч достигает того пикселя, куда он должен прийти. Микролинза меняет это поведение: каждый из лучей, попавших в данный суперпиксель, в конечном итоге попадает в пиксель, соответствующий той области объектива, в которую он изначально попал. Если камера была бы идеально сфокусирована (центры всех микролинз — в фокальной плоскости объектива, а снимаемый объект находится на бесконечности), то лучи, вышедшие из какой-нибудь точки объекта, и попавшие в данный суперпиксель, приходили бы в него со всей поверхности объектива — и матрица под микролинзой была бы освещена однородно (и линза бы работала как традиционный пиксель). Если объекты ближе, чем на бесконечности, то в одну точку матрицы целятся лучи от разных точек объекта (и в традиционной фотографии мы это называем размытием), но микролинза сортирует эти лучи по точкам объектива, откуда они пришли, а алгоритм перефокусировки позволяет распределить лучи по правильным суперпикселям, в зависимости от положения «виртуальной матрицы». Для большинства объектов смещение небольшое. Распределение лучей из одной точки по всей матрице может возникнуть только для совсем уж близких объектов.
Так много слов — а по факту это нам даёт тупо картинку плюс карту глубин. И по ссылке, которую вы там выше дали — тоже можно выяснить, что результатом всех танцев с бубном всё равно получается обычная карта глубин. И вся прорывность в том, что здесь мы эту карту получаем без отнесённого отдельно объектива.

Вы опять за перечислением «новых» (а на самом деле давно знакомых, только переназванных) технических терминов не хотите увидеть результат. А результат в том, что у нас всё равно та же самая единственная матрица, которая принимает изображение. А дополнения дают только карту векторов низкого разрешения, из которой получается карта глубин.

И никаким косметическим преобразованием наложенная карта низкого разрешения не позволит нам восстановить изображение там, где его не смогла сделать резким основная матрица.

Я всё сказал. Разумному достаточно.
Почитайте например вот это www.tgeorgiev.net/Asia2009/03_Focused.pdf хотя боюсь вам уже не помочь. Я тоже все сказал и далее, пожалуй смогу с вами обсуждать только недостатки развития вашей центральной нервной системы.
Вы мне действительно не поможете, в силу того, что совершенно не понимаете, и даже не пытаетесь понять, на что даёте ссылки, и как оно должно работать.

Например, вы бы легко могли опровергнуть мои слова, приведя пример картинки, которая бы была резкая от начала и до конца. Легко. Если бы я был не прав.

А я — прав, потому что в отличие от вас, понимаю, как оно используется.
И много фотографов ей снимают? Это все же скорее специфичный измерительный прибор, а не фотокамера.
Скорее даже видеокамера. Для съёмки настоящих 3D-фильмов (с разрешением 176х144х100, ага...)
Джобс пытался их купить. Не продались. Час бы в айфончике стоял Литро.
Владельцам камер первого поколения при предзаказе дают скидку 20%
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Изменить настройки темы

Истории