Как стать автором
Обновить

Комментарии 49

Замер контраста (контрастный автофокус) это в мыльницах в основном используют, сейчас в зеркалках используют так называемый фазовый автофокус. Но в целом да, его качество оставляет желать лучшего, особенно в условиях недостаточной освещенности.
Точность работы первого варианта (пол диоптрии) весьма сомнительна (а если делать многоитерационный, то получиться стандартный автофокус по контрасту с чуть более быстрой сходимостью). Второе чуть более интересно, но в хороших объективах хроматики и астигматизма практически нет. Их туда специально вводить?)
Можно сделать отдельный объектив для автофокуса.
уже проходили. на телеобьективе с фокусным 300 вы как собрались фокусироваться?
А в чём проблема?
на отдельный обьектив придется накручивать телеконвертер.
Можно встраивать отдельный объектив в, пардон, сам объектив.
Читал с упоением! Вообще изучение алгоритмов обработки информации человеком очень интересна. Кстати, если запрограммировать грамотно данную модель и объединить с библиотекой алгоритмов компьютерного зрения (OpenCV), то можно уже создать довольно интересного робота!
Впечетляет, как сам глаз так и исследование
>> Получая расплывчатую картинку, мозг мгновенно распознаёт дистанцию до объекта и изменяет фокусное расстояние — кривизну хрусталика, чтобы получить чёткое изображение на сетчатке.

Ээххх… уже давно нечёткое, где мои очки? :-(

Придумали бы ещё что-нибудь для регенерации и восстановления подвижности глазных мышц.
> Придумали бы ещё что-нибудь для регенерации и восстановления подвижности глазных мышц.

Давно придумали уже, есть куча всяких методик, начиная от гимнастики для глаз и заканчивая медикаментозными и физиотерапевтическими средствами.
А заканчивается в 95% случаев все либо ношением очков, либо лазерной коррекцией.
Ну, это примерно, как с GTD :)
что-то фильм «Пункт назначения 5» вспомнил
с лазером они переборщили. со сих пор все смерти были в рамках допустимого, если бы не идиотская лазерная коррекция зрения. хотя нет, жаренные сиськи тоже не лезут ни в какие ворота.
А что там было? :) Кто-то умер во время проведения лазернйо коррекции зрения?
Почему нет средств тренировки глазных мышц электричеством?

Одел такие очки перед сном, понапрягал мышцы час, зрение восстановилось/не ухудшилось.

Где подводные камни?
> Почему нет средств тренировки глазных мышц электричеством?

www.oftalmologia.ru/pats/?cont=article&art_id=9532

«Электростимуляция, как метод физиотерапии, улучшает кровоснабжение управляющей хрусталиком цилиарной мышцы и сетчатки.»
Как где-то писали, «применение любого электричества выше пояса чревато повреждениями, несовместимыми с жизнью». Иными словами, любой медицинский прибор, использующий электричество, вряд ли будет допущен к использованию за пределами клиники. А если и появится такой прибор, тут же появятся «гарантированно помогающие» копии, сделанные в Китае. Или в соседнем подвале.
Сегодня точность AF во многом зависят от железа(более светосильные объективы лучше, более быстрые процессоры лучше, USM привод лучше), среды(больше света — лучше), объекта съемки (чем менее зеркальный объект — тем лучше) и его положения (90 град к оси объектива лучше). Как было бы здорово если оптика будущего смогла бы навестить без ошибок на черную зеркальную поверхность в полумраке под углом к объективу в 45 градусов — взял бы две!
Для этого же существует подсветка автофокуса в виде решетки в большинстве зеркалок (недеюсь, просто у меня была даже на 20D)
Знаю, но это решает только одну проблему, хотя это покрывает 90% всех случаев.
Всегда был уверен, что объемное изображение формируется в мозгу за счет стерео (два глаза, два). А эта статья заронила сомнение: что там про позитивное влияние астигматизма? При астигматизме изображение двоится, а зная устройство сетчатки, могу себе представить, что обраруживать задвоившийся паттерн на порядок проще, чем городить стерео-зрение. Надо попробовать поснимать с астигматической линзой и получить карту расстояний из картинки!
Посмотрел литературу википедию — при астигматизме изображение не двоится, а размывается. Это сложнее…
Если получится что-то дельное — оформляйте пост! Давно жду подобной технологии, в теории это сильно облегчит процесс фотомонтажа (наличие канала глубины, снятого с одного шота). Пробовал получить глубину из стереоснимка, но безуспешно. Думаю, из снимка камеры светового поля такую инфу можно вытащить, но пока такие камеры не продаются массово :)
Из стереоснимка уже давно получают отличные карты глубин. Есть даже чарт разных алгоритмов (сравнивают их прближение к идеалу) vision.middlebury.edu/stereo/eval/
Ух ты!
А существуют готовые решения? Которые не программист сможет самостоятельно установить и получить готовый результат? Я нашёл только упоминание о StereoMatcher, существующем в виде исходников (что для меня, всё равно, что ничего).
Нашёл еще Triaxes StereoTracer, но выдаваемый результат очень далёк от того, чтобы его можно было использовать при монтаже.
Когда закрываешь один глаз, то мир ведь не теряет объем :)
это временный эффект. мозг «по старой памяти» формирует объемное изображение, если с закрытым глазом войти в незнакомое помещение, то мир «потеряет» объем
В Lumix G-серии уже что-то такое внедрили, что работает почти в темноте и со скоростью на глаз неотличимую от фазового автофокуса. Интересно, там есть что-то похожее.
ммм? нифига он в темноте не работает. конкретно g2. там контрастный, правда быстро работает. но — это более заслуга обьектива
Про «темноту» я писал исходя из этого видео:

www.youtube.com/watch?v=w7LsFITn7Jc
www.youtube.com/watch?v=ymIK7Ih9F34
www.youtube.com/watch?v=m27Llopmp8g

Там Canon даже не пытается фокусироваться — слишком темно, при этом, имея объектив значительно лучше. Более того, алгоритм все-таки не в объективе, а в процеесоре камеры ;)
ну, а что там может быть такого хорошего, если и светосила у обьектива хуже, и матрица чуток меньше?
светодиод ярче?
Не знаю.
Статья интересная, спасибо.

Но сдется мне, что при фокусировке мозг учитывает куда больше факторов чем просто изображение. Например, контекст окружающей ситуации.
Мне тоже так почему-то кажется. Смотришь вдаль — и уже когда поворачиваешь глаз, мозг, зная что объект далекий, создает соответствующее фокусное расстояние. Тоже самое и с ближними предметами. Ведь если пристально смотреть на горизонт, то врядли мгновенно сфокусируешься на каком-то объекте, который внезапно появился поблизости. Его замечаешь — и только тогда, наполовину подсознательно, вычислив расстояние до него, производишь фокусировку.

Ну а карта «фокусное расстояние — расстояние до объекта» может быть заложена в генах миллионами лет эволюции :)
ага. это позволяет обманывать мозг и глаз иллюзиями
Конечно, наверняка куча всего учитывается, причем большая часть на подсознательном уровне. Движущиеся предметы. Предметы, представляющие потенциальную опасность. Эффект узнавания знакомого человека в толпе — тоже будто зумом выхватываешь моментально… Да тут и смысла нет сравнивать. Мозг — в принципе мощнейшая вычислительная машина, и «мозги» фотоаппарата с ним не сравнятся даже в отдельно взятой функции.
Да… фотоаппарат подобно глазу теряет свою «мощность» со временем… как портится картинка у человека, у фотоаппарата выгорает матрица) жалко только глаза не поменяешь
Еще в школе знали, что именно два глаза позволяют много точнее определять расстояние. Ну, мы знали.
Закройте один глаз и вы всё равно сможете видеть четкое изображение :)
А теперь попробуйте поймать комара на лету — и заметите разницу
Ну координация движений это да, она требует стереокартинки. Вопрос же был про «резкость» изображения. Как глаз фокусируется на объекте.
Помоему тут дело не в координации, а в том, что мозг может дорисовать картинку, даже не имея полных реальных данных, при ловле комаров разница между реальной и дорисованной картинкой проявляется. Еще всякие иллюзии этот пример демонстрируют — когда ваш мозг дорисовывает всякие врашяюшиеся шестеренки, которых нет: image
Так что 2 глаза полюбому лучше, больше данных, меньше додумывания в бэкграунде.
Я вот если любой глаз закрою — вижу не четко(один 0.25, второй 0.75)
А оба, почему-то, дают относительное четкое изображение
У меня так же. Видимо, мозг при совмещении картинки с двух глаз больше данных об объектах получает, чем при рассмотрении одним глазом, и таким образом картинку «улучшает».

Тут вообще механизм на порядок сложнее, чем в фотоаппарате. То, что мы в итоге «видим» — это не просто некое изображение, которое передалось через сетчатку глаза, а именно то, что нам нарисовал мозг на основе этих данных. Иногда он рисует не совсем то, что есть. Или вообще то, чего нет. Галлюцинации, например.))
У вас в голове последняя версия фотошопа, которая качественно смешивает слои из двух разных глаз :)
Кстати, забыли упомянуть, что у человека, все-таки, 2 глаза, поэтому, когда мозг принимает решение, в какую сторону подфокусироваться, он руководствуется примерным расстоянием до объекта (а оно, соответственно, определяется углом между осями глаз).

А математических методов фокусировки для одного объектива, конечно, полным-полно. Вот только нет ни одного, позволяющего точно сказать, в какую сторону надо вращать лимб фокусировки.
Я сам возился некоторое время с алгоритмами, выбрал (как наиболее точный) метод сравнения коэффициентов вейвлет-разложения (Хаар) в областях HH, HL, LH и LL. Скорость достаточна, для работы с веб-камерой на частоте 30кадров/с.
Вот только первоначальное направление вращения лимба все равно приходится угадывать (двинуть немного в одну сторону, измерить «коэффициент расфокусировки», если он улучшился — двигать в ту же, иначе — обратно).
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории