Как стать автором
Обновить
5
0
Константин @cappasity

Пользователь

Отправить сообщение
Коллеги, 17 марта мы проведем вебинар на тему использования 3D технологий для e-commerce. Будет как теория, так и практика.

https://www.facebook.com/events/1276725012381714/

Покажем съемку товара с использованием обычного фотоаппарата, продемонстрируем как встраивается результат в сайт интернет-магазина.

Из теории — расскажем подробно про конверсию, а со-основатель Hilo Sagrado поделится своим опытом использования технологии Cappasity.

Hilo Sagrado — это не просто fashion бренд, а организация, которая помогает сохранять культурное наследие Латинской Америки
http://www.fundacionhilosagrado.org/

“As Co-founder and Member of the Board of Directors for the Hilo Sagrado Foundation, I am thrilled to participate. For us, technology is key to foster education (training), access to markets (through our marketplace) and connect multidisciplinary experts to contribute to a more sustainable development in the community. Of course, having a 3D option is strategic to attract more clients.”
– Ann Maria, Co-Founder at Hilo Sagrado

Спонсором вебинара является компания Intel.

Коллеги, мы работаем не только с Интел, а еще со многими технологическими компаниями в Долине. У нас нет условий договора — мы осознанно открыли компанию именно там в 2013 году. И до этого уже вели бизнес в США и Европе.

В настоящий момент нас поддерживает SBDC. За счет штата Калифорния мы получили лучших адвайзеров http://www.techfuturesgroup.org/client-profiles/
Подобную преференцию предоставляют быстроразвивающимся IT компаниям.

Неделю назад компанию Cappasity выбрали в Plug and Play Retail. Конкурс из 2000 компаний со всеми мира.
http://plugandplaytechcenter.com/corporations/retail/

Мы всегда шли и идем по сложному пути и не руководствуемся поговоркой «где родился так и пригодился». Мы должны быть там, где есть рынок для нашего продукта и где наши инвесторы получат максимальный ROI. Самый большой рынок e-commerce в США и Китае.

В России у нас есть присутствие, но это для нас не является ключевым рынком.
Погрешность 1мм + шумы зависящие от множества факторов
После реконструкции. Погрешность меша относительно исходного материала.
~ 2 мм. Предварительное тестирование. Подробнее расскажем ближе к CES 2016. Тема связанная с размерам находится в разработке.
Вы совершенно правы, поэтому наш fusion можно лишь условно называть KinectFusion. Проблемы с текстурами решаем способом похожим на одно из выступлений сотрудника Артека. Потом еще двигаем, чтобы править швы. Веса действительно могут решить проблему, но лицо является самым больным местом.

DynamicFusion вещь интересная, но пока детально не изучали. С подобным экспериментом можно надолго засесть, так как одно из главных для нас условий — чтобы все быстро работало на HD Graphics и на мобильных устройствах… Если бы были свободные руки — попробовали бы.
К сожалению манекен создается через вбивание параметров вручную. Что крайне неудобно.

Будущее вот за такими примерочными, когда можно увидеть себя —
Мы для скана людей используем R200. Для сканирующих боксов — F200. Каждая F200 камера подключена к своему PC и чтобы они не мешали друг другу — то есть в каждую единицу времени работает только одна камера глубины. Если гасить полным выключением, то долго. Можно гасить регулировкой LaserPower — тогда почти моментально, но иногда может подвисать сама камера. Тайминг затрудняюсь сказать так как давно проводили эти эксперименты.
R200 не мешают. F200 мешают и приходится гасить эмиттер.
Коллеги, мы будем на стенде Intel во время мероприятия mixAR 26го сентября. Кому интересно обсудить RealSense — приходите в гости. А так у нас регулярные апдейты на страничке в Facebook — www.facebook.com/cappasity
Сами платформы для вращения человека нам делает Владимир. Доверяем профессионалам!) Но все работает на Intel Edison. Для бокса уже наша конструкция, так как там требуются особенности для установки камеры под предметом.
Недавно Ракутен купил компанию, которая занимается виртуальными примерочными — fits.me
Мы как раз сейчас обсуждаем пилот с одной европейской сетью. В следующем году запустим свое облако для хранения моделей. Пока же магазины могут использовать платный аккаунт на sketchfab. Там достаточно простая интеграция.

Но вот с виртуальной примерочной все еще вопрос открыт. Очень сложно технологически реализовать полноценную примерочную. Чаще всего все сводится к снятию размером со скана, чтобы потом сделать поиск вещей по базе товаров.
Страница — sketchfab.com/kpopov

Людей еще особо не заливали, так как пока разработка в процессе. Зальем в октябре после текстурных правок. Приходите в гости на мероприятие Открытие Инновации. Отсканируем ;)
Мы пока не рассматриваем для фулбоди скана RealSense, так как ограничение зоны сканирования в 1 метр — крайне мало.
Если говорить о fusion скане тела или о предметах, то сенсоры испытывают проблемы со 100% черным цветом. Настройки параметров камер помогают находить решение.

Если рассматривать систему моментального сканирования, то остаются еще PrimeSense и Kinect2. Пока лучший вариант по захвату черного цвета — использование PrimeSense. У него свои проблемы, но с черным, шерстью и тп он объективно пока лучший. Опять же есть и Кинект2. Там меньше проблем с черным, но не все идеально по другим моментам.

Для каждой задачи подойдет свое железо.

Все перечисленные проблемы не являются стоперами для бизнеса. Это просто усложняет разработку, но с другой стороны снижает конкуренцию со стороны тех, кто не сможет решить эти задачки. Многие недостающие данные можно восстановить или компенсировать.

Большинство студий предупреждают клиентов по поводу одежды и аксессуаров. Даже дорогие сканеры будут испытывать проблемы с отражающими предметами. Нет ничего идеального.
Альтернативный вариант — снимать блестящие и черные места очень близко и под разными углами. Но не всегда есть возможность избежать эффекта вдавливания.
Да, это действительно проблема. В большинстве случае лечится увеличением значения параметра motiontradeoff у сенсора до 50-100. Тогда многие невидимые на depth участки будут прорабатываться. Но при этом возникнут дополнительные шумы. Их уже нужно устранять другими алгоритмами и это крайне неудобно, если использовать стандартный fusion.

Я верю, что проблему можно исправить на уровне SDK/прошивки. Так как на IR картинка совсем иная. Посмотрим будут ли апдейты по данной теме.

Кстати, если интересно, то можно посмотреть на наши эксперименты с текстурным мэппингом тут — sketchfab.com/kpopov/models
Есть и черные предметы. Снимали с девелоперского ультрабука.
В MF режиме фокус не меняется.

У нас обычно погрешность от трех до пяти пикселей на Rebel T3i камере. Корректируем уже на стадии проецирования текстуры. То есть погрешность до 5 пикселей нас пока устраивает.
На объективе Canon есть переключатель AF/MF. В начале мы фокусируемся по ожидаемым максимальным габаритам объекта в режиме автофокуса (например, берем доску и делаем шот в авторежиме для каждого фотоаппарата) и потом переключаем на MF. Только после этого калибруем параметры камер.

Мы используем бюджетные модели типа Canon Rebel (цена 500-600). Сейчас отказываемся от Canon SDK и мигрируем на PTP протокол. После этого попробуем использовать бюджетные камеры и поддержим касту поклонников Nikon. Пока не было опыта работы с PTP и еще не знаем на какие грабли наступим.

Пока самый бюджетный вариант из проверенных — веб-камера Logitech HD. Качество лучше чем у RealSense RGB, но конечно хуже чем у Canon.

Коллеги из США посоветовали обратить внимание на оптику GoPro. Жалко, что стриминг цветного канала делается через полухак… Но очень хочется попробовать!

Встречался с Olympus на CES. Насколько я понимаю они присматриваются к тематике 3D реконструкции. Думаю в ближайшие пару лет мы увидим много всего интересного.
Теперь видно. Спасибо. А можете загрузить модель на sketchfab?
1

Информация

В рейтинге
Не участвует
Дата рождения
Зарегистрирован
Активность