Pull to refresh

Comments 26

Можно писать тупо мозговую активность чтоб следующие поколения могли что-то от туда извлечь. Это как хранение биологического материала в криминалистических лабораториях.
Реальное время — это раз в несколько секунд?
Нет, после калибровки гарнитура откликается очень быстро, по ощущениям практически мгновенно.
Судя по фоткам, само устройство вы в руках не держали?
Если там в основе ЭЭГ, то точно не мгновенно. Ритмы мозга — вещь довольно медленная
Похоже я переборщил с перфекционизмом при съемке )))
Не могу сказать точно — насколько быстро формируются ритмы мозга, но устройство позволяет легко играть в реальном времени. В демках есть простой платформер и еще одна игра жанра brick breaker.

Если это dev kit — то в поставке должно быть какое то SDK? Документация по api? На каком языке можно вести разработку?

здесь же достаточно бросить сконцентрированный взгляд и немедленно получить ожидаемое нажатие на виртуальную кнопку

А если случайно посмотреть на кнопку или просто подумать о ней?
Случайно не получится ))) Нужна именно концентрация взгляда. От того, что просто посмотреть на кнопку она не активируется. Если просто о ней подумать — тоже ничего не произойдет, поскольку визуальная кора не получит сигнала от органов зрения.
А если сконцентрироваться на похожей кнопке, которая расположена в другом месте, например, распечатать скрин с экрана?
Попробовал интереса ради, так тоже не срабатывает.
То есть скриншот экрана если на весь экран открыть, то уже не работает? Вероятно, считывает частотную модуляцию моргания кнопок и все они на разной частоте работают.
Скорее всего так и есть.
Еще можно попробовать мысленную визуализацию кнопки и концентрацию на ней. Это было бы очень интересно.
Странно слышать про «первый нейроинтерфейс» и не упомянуть Emotiv первая девелоперская версия которого у меня лежит с 2010 года (она тогда была еще страшная на вид и реально прототип напоминала, текущие законченные изделия куда приятнее и футуристичнее выглядят)

В emotiv вроде всего три электрода было? Выглядит он, конечно, круто, но как работает? Тут на Хабре была статья, автор остался не очень впечатлен, насколько я помню. У вас есть опыт с ним, поделитесь?

У меня есть Emotiv Epoc 2009-го с 14 датчиками, вот такой. И мне тоже странно слышать про «первый нейроинтерфейс реального времени». Как сейчас помню, что с ним поставлялась 3D-ходилка, где силой мысли можно было двигать камни, гнуть ели и прочее в таком духе, а погода менялась в зависимости от твоего настроения (раздражение/спокойствие). Да, действительно нужен был гель, но на водной основе, а не липкий как на ЭКГ, и главное, всё работало прекрасно в реальном времени. Более того, помимо собственно инфы о мозговых волнах оно также считывало выражение лица и движение головы. Через API можно было достать как сырые данные с датчиков, так и готовые обученные на калибровке команды. В зависимости от крутости твоего навыка концентрации можно было сохранить что-то вроде до 14 команд + детектор настроения шёл «в подарок» (не требовал калибровки). Эту конструкцию можно было даже подключить как HID-девайс в качестве клавиатуры или мыши, то есть она даже вполне была совместима с любыми существующими приложениями и играми.

12 лет тому назад интернет полнился возгласами «ура, скоро мышки и клавиатуры будут не нужны». Вот в этой статье, вызвавший у меня сейчас укол ностальгической грустинки, уважаемый @sasha237 перечислял несколько уже имеющихся на тот момент аналогов, а в конце заключал: «Будущее ну совсем уже почти здесь…»

Выше были факты, но позволю себе чуть-чуть диванной аналитики. По мне так история 1-в-1 как с VR (картинка отсюда). Только у нейроинтерфейсов, увы, пока не появилась триада Кармак-Цукенберг-Beat Saber (то бишь прорывной девайс + возможность продавать дёшево в убыток ради аудитории + реально толковый софт для не-гиков), способная создать продукт, который будет продаваться лучше свежего Xbox. Порочный круг «нет людей, потому что нет софта, и нет софта, потому что нет людей» разорвать очень тяжело. Я гораздо охотнее поверю в то, что в условном Meta Quest 4 такая прибабаха сзади появится как новая дополнительная фича, или в то, что такой рынок создаст харизматичный лидер, чем в то, что скромная независимая компания внезапно откроет масс-маркет подобным девайсом.

И ещё одно размышление. Как-то услышал прекрасный кейс (увы, источник не помню) человека, поставившего во дворе своего загородного дома стол, большой и красивый, в надежде, что его семья будет каждый день собираться за ним на завтрак. Но в реальности все ели на кухне или в своих комнатах, кто где. Этот человек долго думал, что же пошло не так. Наконец, он передвинул стол на десяток метров ближе к кухне — чтобы его было прям видно оттуда, и до него был всего один шаг. С того дня они собирались за ним каждый день. По мне так похоже скорее на притчу, чем на реальный случай, но тем не менее, с выводом я согласен: даже лишние 10 секунд, необходимые для того, чтобы дойти до стола, а также минимальное мысленное усилие, необходимое, чтобы вообще о нём вспомнить, фатальны, если выгоды неочевидны. Так было и с VR, когда для его использования нужно было ставить в комнате датчики. И так сейчас обстоят дела с нейроинтерфейсами, которые нужно мучительно калибровать. Даже если калибровка будет занимать 10 секунд, это всё ещё будет фатально для пользователя, для которого выгоды неочевидны. Так что нужно либо избавиться от калибровки (нейросеть, вызываю тебя!), либо сделать использование устройства более выгодным. Потому что вряд ли хоть кто-то на свете будет каждый день надевать эту штуковину на голову и калибровать только ради того, чтобы пару раз в день заменить ею телевизионный пульт.

Подобные устройства еще (или вполне) могут пригодиться для людей, лишенных возможности двигаться (т.е. работать в режиме BCI — brain-cimputer interface). А на массовом рынке их постигнет та же судьба, что и Kinect и Google Glass. Т.е. вначале будет вау-эффект, а потом — «вдруг» выяснится, что автоматическое действие, не требующее фокусировки на экране, гораздо удобнее и не так напрягает. Правда, очки могли убрать с рынка по другим причинам.

Ведь хорошо известно — чем меньше кликов надо, чтобы вызвать требуемую функцию (и чем меньше надо думать при этом) — тем выше юзабилити. А тут придется думать на каждом шаге.

Форма вообще не влияет, только частота и фаза, методика называется SSVEP или множество её вариаций. Ваша концентрация на стимуле по сути не важна- достаточно только смотреть.

Как замена мыши технология вполне может пойти — все равно на курсор мышки надо смотреть. Но вот если действительно надо «просто смотреть» чтобы вызвалось событие — то это как-то так. Мало ли на что я смотрю на экране не кликая.
Прокрутку страницы тоже не заменить — отрывать взгляд — лениво.
Хотя… думаю молодежь научится так делать всё.
Ты пользуешься мышью? А ты динозавров видел?
Ну управление телеком явный кейс(если бы не стоимость). Идти за пультом тоже лениво.
Те всё таки в будущем придут к имплантации и транскраниальной энцефалографии для считывания судя по вектору продвижения…
был вроде проект Носимого МРТ — интересно где он…
такие вещи могут выйти на массовый рынок, заменив мышки и пульты

Это реально технрмагия какая-то
Круто, что не нужно голову брить.)
Скоро не придётся искать пульт от телевизора, он всегда будет на голове)

Было бы классно фреймворк для работы с мозгом получить
Sign up to leave a comment.