Как стать автором
Обновить

Комментарии 21

Беда в том, что при клике мышь или трек-бол находятся в устойчивом положении, а палец в воздухе.
Так при щелчке курсор будет сбиваться. К тому же мышь всегда готова к использованию, а эту штуку надевать надо.
Проще и эффективней следить за глазами, ящитаю.
А как различать ЛКМ, ПКМ, СКМ и прокрутку?
Это уже вопрос к технологиям, вообще у сони перспективный проект с очками дополненной реальности, там можно руками создавать фигуры и печатать на принтере. Думаю скроллить пальцем по воздуху и кликать по кнопкам там уже реализовано, сужу по рекламным роликам.

Мне кажется нужно делать по аналогии, камера следит за руками, а вы работаете как будто с сенсорным экраном, только виртуальным. Единственное руки устанут)
Именно, что руки устанут. Тереть пальцами легче, чем дирижировать. Мне вообще все эти новинки с распознаванием жестов кажутся тупиковыми. Слишком много телодвижений. Мне до мышки то лень руку тянуть, а тут еще нужно махать ею. Да и ограничений тоже немало. Я могу например закинуть ноги на стол, одной рукой пить кофе, а другой взять мышь и крутить колесико. Как камера сможет что-то распознать в таких условиях, я не представляю. А с кольцом валяйся как хочешь, ему пофик.
Согласен с вами. В свое время. после просмотра фильма «Особое мнение» сильно заинтересовался идеей управления ПК жестами и даже написал простенькй фрэймворк реализующий такую функциональность через Кинект(были доступны только три жеста забинденные на ЛКМ, ПКМ, прокрутка). На практике это все было крайне не удобно. Даже в кейсах типа перелистывания слайдов во время презентации, традиционные пульты управления с кнопками значительно удобней, чем такие штуки. Может быть, когда наконец появятся нормальные гаджеты дополненной/виртуальной реальности, такое управление станет чуть более удобно, но пока такие технологии выглядят нелепо.
А можно ли распознавать «внутреннюю речь»? Я к тому, что мне кажется перспективнее управлять с помощью мыслей, чем любым физическим инструментом. Если уж обезьяна может научиться управлять механической рукой, чтобы поднести себе банан, то при развитии этой технологии, управлять любым интерфейсом будет проще, чем мышкой. Если это конечно не будет требовать значительных «ментальных» усилий.
Емнип, при четком внутреннем проговаривании слов можно отловить колебания эл. поля на гортани (которые еще не приводят к звуку, но уже фиксируются приборами). Я вроде бы пару лет назад читал про подобные эксперименты.
«Подвинуть курсор к 819 на 499. Нет, к 843 на 478. Нет, черт!»
А зачем двигать курсор? Если вам нужно нажать на кнопку — так и формулируйте мысль. Если передвинуть окошко влево на треть — тоже. Двигать попиксельно нужно разве что в CAD или при работе с графикой, но там свои инструменты, вроде планшетов.
"«Подвинуть окно на четверть влево. Нет, на треть. Нет, черт!»"
Ну вы уж определитесь, на сколько его подвинуть то :)
В том то и дело, что заранее не знаешь. Когда двигаешь окно то просто двигаешь его, пока не покажется что вот то самое место. А заранее его и не узнаешь.
Я вот лично начинаю двигать, когда точно знаю, что 1. его нужно подвинуть, 2. его нужно подвинуть чуть влево (например). Говорим «подвинь окно на треть влево». Мышкой точно так же, плюс-минус. Если лишнего — «медленно двигай окно вправо… стоп». Не вижу тут особой проблемы, если честно.
Более частый кейс — «прижать окно к левому краю», например. Ну или «развернуть окно».

А вообще, конечно, более естественный интерфейс в этом случае — просто хватать окно рукой и двигать куда нужно.
Если вспомнить статью по 200 миллисекунд свободы, то скорее всего вы знаете куда хотите переместить окно еще до того, как захотите это осознано или даже выше осознанное желание будет следствием уже принятого мозгом решения:)
Вот скоро появится Вин 10 с Кортаной, можно будет попробовать забацать такой плагин к ней и проверить.
Сдается мне, что еще не скоро появятся портативные устройства с достаточной чувствительностью, чтобы отлавливать большой диапазон различных «мыслей»
Но ведь можно же соединить отслеживание взгляда+мысли+подсказки по действиям? Так по идее будет проще понять, что именно хочет пользователь?
wrong.
1 — это MS
2 — это не замена мышки за 5 евро — это концептуально новый и дорогой интерфейс.
Можно перенести их на клавиатуру. Всё равно по сути это просто кнопки.
Как товарищ Riateche верно заметил — управляя курсором с помощью глаз можно было бы не отпускать рук от клавиатуры.
Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории