Pull to refresh

Comments 85

Там вся техника (вернее, органы управления) емнип такая же была, и мониторы и клавиатуры.
Вот сходу нагуглилось
У маркетологов вспотели ладошки!
Мда, похоже двух маркетологов-левшей настолько задела (возможно, неудачная?) шутка, что не поленились таки залезть в профиль и сделать свое грязное дело! :)))
Тут дело не в маркетолгах, а в вашем пубертатном юморе
Нет, я конечно подозревал, что на Хабре осуществляются преследования и гонения на почве чувства юмора и что это является поводом для слива, но что бы ВОТ ТАК открыто срывать покровы! Спасибо, кэп! Жму руку…
Да ладно, не парься, слив за то что на самом деле ты ошибся с рукой, вспотела левая, потому что в правой мышка!
[рискуя быть тоже заминусованным]
это он еще про скайнет не успел пошутить
а нечего тут шутки шутить, разрешаешься только восторгаться и радоваться.
Ну, каждый по-своему восторгается и радуется — кто хороводы водит, кто фапает, кто шутки шутит… Не вижу противоречий…
Думаю, команду Валентина Хуена ждет успех…
Это просто офигенно. Если совместить подобное с очками вроде Glass, получится нечто невероятное.
Вспомнились hud'ы у Чен Хо.
Голосом особо не поуправляешь
А голос здесь и не при чём. Главное, что в очках цифровые интерфейсы будет видно, и не надо тяжёлый планшет держать перед глазами.
Да и как они помогут, в примере с радио, выбрать трек или включить колонки?
Непосредственно в данном примере — пока никак. Но на мой взгляд, это чисто технические трудности. Мне кажется, что вполне возможно тем или иным способом реализовать объёмный сенсор, который будет реагировать на жесты руки пользователя в определённом пространстве (вспоминаем кинект).
Опять же — жесты глазами, не такая уж фантастика.
Вот он, способ, который позволит превратить интерфейс стиральных машин из панели управления космическим кораблем в нечто более простое!
… а не наоборот ли? На экране-то хоть 1000 ползунков и кнопок нарисовать можно. Еще хуже станет :)
В крайнем случае можно будет среверсить протокол. Я верю в светлое будущее.
И сделать одну кнопку «Постирать»
«Начните работу с нажатия этой кнопки»
«Начните стирку с нажатия этой кнопки»
Также, весьма актуальна будет кнопка «домой» в автомобилях.
Давно хотел иметь возможность скиннировать серую обыденность улиц чем-нибудь, вроде графики в стиле Симпсонов или той же подсветки в стиле Deus Ex. Будете делать стартап — запишите меня первым клиентом.

P.S.: Мне кажется, что заявленной производительности Glass не будет хватать для real-time рендеринга подобного скина. И это печально
Какие пару лет, тут уже 8-и ядерные процы в смарты ставят. Страшно подумать, что будет на следующий год.
Дело скорее даже не в рендеринге (всегда можно повесить аккум+память+процессор на пояс), а в наложении: пиксели камеры и экрана слишком большие по сравнению с реальным разрешением глаза. Вас будет постоянно укачивать из-за несовпадения нарисованной картинки и физического положения головы/глаза. С наложением рамочек-текста, как в этом посте, намного проще, они лишь слегка дополняют картинку, оставляя мозгу основню картинку для «зацепок» зрением.
Насколько я понимаю, «разрешение» «текстуры» особо роли не играет. К примеру, в том же «скиннировании Симпсонами» требуется лишь определить рёбра и вершины поверхности и «залить» её определённым цветом. Или от разницы в «antiAliasing» между экраном и глазом тоже может укачать?
Так рёбра то и не будут совпадать, в этом косяк. Вы чуть качнули головой — картинка сместилась, глаз это заметит, а система новую не отрисует, потому что смещение всего на пол пикселя. Да вряд ли даже 2 пикселя точности можно получить.
То есть вопрос даже не в пиксельности экрана, а в разнице возможностей глаза и камеры/лазеров/чем-там-ещё-придумают-следить в плане реакции на малые угловые скорости?
Мне кажется, тут вполне могут помочь технологии стабилизации изображения, используемые в фотоаппаратах. Система с обратной связью и достаточной скоростью реагирования может справится с этой задачей.
Точность распознавания объектов на снимке может превышать размеры пикселя. Если объект не занимает пиксель полностью, а занимает только часть пикселя, вполне возможно определить с некоторой точностью, какую именно часть пикселя он занимает, основываясь, например, на цвете этого пикселя и соседних с ним. Конечно, в режиме реального времени сейчас это сделать сложно, но теоретического ограничения тут нет.
Это пока Glass использует проектор, когда Glass начнет юзать прозрачный oled — тогда картинка изменится.
Реквестирую подсветку а ля Mirror's Edge.
UFO just landed and posted this here
> и желательно без проводов.

Это уже есть, Intel WiDi:

Intel Wireless Display, most commonly known as WiDi, is a wireless display standard developed by Intel, based on the existing Wi-Fi standard. It allows a portable device or computer to send up to 1080p HD video and 5.1 surround sound to a compatible display wirelessly.

У меня все руки чешутся, заказать адаптер для монитора и попробовать (в ноуте есть поддержка).
UFO just landed and posted this here
Цифровое Будующее выглядит более реалистично, аш слюнки текут :-)
в масс эффекте похожие интерфесы повсюду, правда отображаемые в виде голограмм на самом объекте, а не дополненной реальности.
ничего в этом суперского нету, так, просто ок.
думаю человек со средним опытом OpenGL и AR сможет такое повторить…
Мир вообще банален и очевиден. Ваш КЭП.
Нет, ну правда, чем данная «новая» разработка отличается от десятков AR проектов?

Дополню, что я хотел бы увидеть в AR: 1) оперирование гораздо более произвольными объектами, 2) добавление нового объекта на лету.
Гораздо более качественная реализация и привязка к реальным объектам. С точки зрения концепции ДР конечно же ничего выдающегося. Но так можно дойти до того, что ДР вообще штука обыденная т.к. ее прообраз внедрен на лобовом стекле боевых самолетов вот уже 20 лет как.
Эволюция — это хорошо. Но название статьи звучит так, как будто это что-то принципиально новое. А по факту — развитие усовершенствование, но всё равно не до уровня реального использования.
Быстрая(у них ведь все крутится на хилом iPad без «подлагиваний») система детектирования и восстановления позы для неплоских объектов — это уже неплохое новшество.
Объект не произвольный, по спец разметке ориентируется, это уже неоднократно демонстрировалось.
Что есть «произвольный объект» в вашем понимании?
Без спец разметки как на видео. Допустим, обычная колонка чёрного цвета.
Если есть возможность нанести маркеры на объекты, то почему бы их не использовать? Если не будет там спец маркеров, будут матчить текстуру самого объекта или контура анализировать(если объект не текстурный), вычислительная сложность возрастет но функционал по большому счету не увеличится…
Да-да. Но по факту, все бодаются с маркерами, а живой технологии распознающей обычные объекты, с возможностью добавить любой домашний объект в систему — не видел. И по большому счёту, продемонстрированное здесь не сильно отличается от чайника Юта на коробке.

Я немного занимался распознаванием образов, поверьте, матчить по текстуре тоже не всё так просто. Особенно, если объект нужно добавить в режиме работающей системы, а не «захардкодить» под конкретный объект.
Маркер — та же текстура, если такие системы «пойдут в народ», то не исключено, что производители начнут прямо на заводах маркировать продукцию, теми же баркодами которые для реальных объектов могут стать дескрипторами, как PID/VID для USB-устройств сейчас. Тогда и не потребуется специально вносить в систему новые объекты: они сами автоматом будут подгружаться(ala автоматическая установка драйверов).

Не знаю в чем у вас возникла проблема по «добавлению объектов в режиме работающей системы».
Объект при Textured Object Detection представляет собой набор keypoint'ов и соответствущих им дескрипторов для каждой позы объекта, в чем проблема подгружать их в систему на лету? Для pose reconstruction плюс к keypoint'ам нужно еще облако 3D точек им соответствующих. Например в небезызвестном роботе PR-2 такая система есть, а вот для задач AR — это уже «тяжелая артиллерия».
Я не говорил, что проблемы не решаемые. Но в комплексе это выливается очень большую нагрузку. Вот увижу такую систему — буду согласен, что это новое. А пока — это ещё одна разработка в той же нише, что и предыдущие.
UFO just landed and posted this here
Но, вкупе с пресловутыми Google Glass из этого может получиться по настоящему революционная вещь

Таки устройство ввода еще надо разработать. Одной сенсорной душкой тут не обойтись, скажем для ввода пароля на замок =)
UFO just landed and posted this here
Я, конечно, понимаю, что Хуен смешнее, но фамилия у него, все же, Хьюэн.
Настоящее будущее это не когда ты тыкаешь пальцем в виртуальную менюшку, а когда ты просто думаешь, что нужна вот такая-то музыка и она включается, когда ты только касаешься ручки двери, а она разлочивается, а после того как закрыл дверь — снова лочится.
Google наверное уже побежал покупать эту компанию
Скорее — побежали патентовать.
UFO just landed and posted this here
Ну вот возьмем замок. Что мешает вместо ардуиноподобной системы + wifi или bt модуль + iPad использовать тупую клавиатуру за 5 баксов? Ну то есть как сейчас это сделано?
Или свет — встройте в выключатель копеечный IR-приемник и пользуйтесь любым универсальным пультом, включая современные смартфоны/планшеты.
Радио оставим — совсем не понял зачем такое нужно. Ну то есть так-то понятно, красиво все крутится там, но зачем тогда на радио вообще кнопки и регуляторы?
Как обычно — вместо упрощения — усложнение. Идеальный продукт для удорожания.
Согласен полностью. Красиво все выглядит, никто не спорит. Но для чего это нужно — непонятно. Другое дело, что если бы в этом конкретном примере (радио) не было вообще регуляторов, а управлялось вот таким дополненным интерфейсом с планшета/смартфона. Соответственно много устройств в доме, а пульт один — телефон/планшет. Футуристично и удобно. Хотя, полно хардварных универсальных пультов…
Ну вот. Раз уж про замки заговорили.

Дверь как в сейфе без каких-либо намеков на интерфейс. Просто тупо плита. Подходишь к ней, а у тебя появляется нарисованная хитрая клава на которой набираешь код и открываешь.
Батарейка села у вашего планшета/телефона и сразу же куча проблем. Чем больше умных устройств (без регуляторов), тем больше проблем. Например, умник какой-то додумается выключать розетки таким образом, а включить уже не сможет… А в случае с монотонной дверью — даже в дом попасть не сможет.

Да и в целом — не очень удобно каждый раз наводить телефон на конкретные устройства. Просто список подключенных девайсов с возможностью управления ими ИМХО удобнее. Вот вы вышли из дома, а не помните — выключили свет или нет. С представленной в видео технологией придется возвращаться…
Если всё делать вообще без регуляторов, то оно будет абсолютно неудобно для использования. Чтоб включить свет, нужно будет искать планшет, включать его, загружать нужную программу, наводить на выключатель, после чего уже можно будет с ним что-то сделать, если желание не пропадёт. С другой стороны, если выносить всю настройку на панель устройства в виде кнопок, то получим то, что сейчас творится с большинством домашних устройств, когда для включения стиральной машины приходится пол часа вкуривать инструкцию (немного утрирую, но всё же). Подобные же разработки пытаются совместить незагромаждённый интерфейс устройства и большое количество возможностей.
На мой взгляд, всё довольно правильно сделано. Основные функции через реальные элементы управления, а тонкая настройка уже с помощью дополненной реальности. С замком да, немного странно у них вышло. Если набирать код на двери на клавиатуре, а сменять его, если нужно, с помощью планшета, тогда всё приобретает больший смысл. Для света так же, включаем/выключаем через выключатель, а настраиваем на планшете. У радио аналогично, громкость и переключение станций на главной панели, а привязка станций и колонок через дополненную реальность. Довольно удобно.
Третий год занимаюсь AR и вижу снова типичную картину — презентация работает на сферическом коне в вакууме, на аккуратно выпиленной и правильно раскрашенной картонке, но стоит выпустить это в реальный мир, и алгоритм станет абсолютно бесполезен для массового применения.
Сколько уже граблей поломано, и каждый раз общественность, а за ней и горе-заказчики этих AR-контор снова и снова покупаются на эту уловку. Потом долго разбираются, почему оно не работает, когда солнце с другой тороны, когда лампа флюоресцентная, когда рисунок на объекте «почему-то» не совпал с ожиданиями алгоритма, и так далее.
Забудьте, короче говоря.
Так то оно так, но в конце концов ведь алгоритм будет доведен до возможности его использования.
Этому алгоритму уже сто лет в обед, а воз и ныне там же, где и 15 лет назад.
Проблема в том, что разработчики начинают решать проблему не с того конца, и когда приходит пора выпускать программу в реальный мир, оказывается, что надо делать все заново. Своего рода вопрос прикладной научной философии, на которм сыпется большинство разработчиков.
В начале века довелось поиграть на сотовом в игру, которая накладывала свои объекты на видеоряд от камеры. Перемещение сотового, соответственно приводило к перемещению объектов. Игра была неинтересная, и больше применения такой технологии нигде не видел. Надеюсь теперь все будет более удобно и интересно.
Интерактивные инструкции будет удобно использовать уже сейчас. Крутишь новый девайс перед планшетом и он все кнопки тебе подписывает.
UFO just landed and posted this here
Если всем можно управлять с дивана — тогда отпадает смысл этой разработки.
Прекрастная разработка но ее будущее это проецирование сигнала компьютера напрямую в мозг подменяя/дополняя сигнал с человеческих глаз.
И это будет настоящая дополненная реальность.

А сейчас эту разработку соеденить бы с Инвертором или СолидВоркс, чтоб инженер мог крутить руками 3д модель смотря через планшет.
Все понятно. Не понятно только, зачем такие здоровые сложные маркеры на объектах использовать, неужели их потом обрабатывать проще?
Чем больше маркер, тем точнее угол поворота объекта без дополнительной обработки. Меньше будет прыгать нарисованное меню.
Sign up to leave a comment.

Articles