Как стать автором
Обновить

Комментарии 31

Даже DOOM?
Помню, что в Doom3 и в Portal точно укачивало.
ИМХО, суть подобных гаджетов (очков) заключается именно в понижении порога, чтобы оказаться вовлечённым. Просто более продвинутый монитор, который в совокупности с хорошими наушниками позволяет глубже погрузиться в процесс.
Вряд ли кто-то из разработчиков ставит перед собой целью добиться полного погружения, так, чтобы организм не заметил подвоха. Да и опасно это. Многие уже наверняка вспомнили нейрошлем :)

P.S. Из опыта: если в демке с американскими горками помнить про нереальность картинки и контролировать вистибулярный аппарат, делать акцент на настоящее тело — голова очень быстро начинает болеть, лучше поддаться и не мешать организму интуитивно наклоняться в стороны (ради интереса демку смотрели стоя, а руки держали по швам).
Задержки — это только частный случай несовпадения видимого изменения положения в пространстве с ощущаемым. А вот как имитировать ускорение всего тела?
Меня в свое время Doom сильно укачивал. ) Современные игры уже редко этим страдают или просто я вырос.
Базовая частота смены кадров — 60Гц, то есть в одной секунде 60 кадров. Один кадр длится 1/60 секунд, это 16.(6) миллисекунд. Современные технологии используют задержку в два (точнее один плюс то время, что ещё осталось до следующего) кадра, прежде, чем игрок видит результат своих действий. Зачем называть обычную кадровую задержку устрашающим словом «микрозадержка», непонятно.

Чтобы сократить задержку реакции до двух миллисекунд, нужно ускорить графику больше, чем в 16 раз. Даже с учётом сильно упрощённого следствия из закона Мура (удвоение тактовой частоты каждый год) потребуется 4 года. Но закон Мура так не работает, а будут ещё проблемы с частотой и разрядностью шины данных, с отводом тепла, ещё целая куча других инженерных и софтовых проблем.

В общем, качественную ВР ещё ждать довольно долго.

Почему базовая частота смены кадров? Можно и 500 герц получить, оставив высокую детализацию только напротив желтого пятна.
Для этого надо, чтобы дисплей двигался синхронно с глазным яблоком, а не с головой как сейчас.
Наращивать fps — не единственное решение. Мне приходит в голову такая схема: за время смены кадра сцена меняется мало, достаточно рассмотреть главную компоненту — линейное движение картинки в поле зрения. Допустим, на 50 пикселей по горизонтали. Добавляем в матрицу дисплея функциональность сдвигового регистра — и каждую 50-ю часть кадра сдвигаем изображение на пиксел прямо в матрице. Правда пиксел ещё должен физически успевать переключиться.
SteamVR и DK2 имеют low-persistence дисплей. Он активен лишь ~1мс. Остальное время выключен. Это позволяет прикрыть убрать блюр.
То о чём вы говорите уже реализовано в шлемах. Перед выводом полученное от PC изображение «подправляется» в зависимости от полученных с датчиков данных.
Естественно это чуть посложнее чем «сдвиговый регистр».
В Morpheus происходит репроекция на 120Hz
То о чём вы говорите уже реализовано в шлемах

Как я понимаю, не прямо в матрице. Важно, чтобы коррекция делалась уже после развёртки, только тогда можно сделать задержку меньше времени смены кадра.
В реальности всё сложнее.
Задержка трекера -> USB hw -> USB sw -> апдейт сцены + рендер -> буферизация драйвера (1..3 фрейма) -> рендер кадра на GPU -> vsync -> scanout

Т.е. данные которые мы получили с трекера, к моменту появления их на экране
безнадёжно устаревают. Для борьбы с этим используется предсказание.
Чтобы уменьшить латентность, можно апдейтить данные прямо во время рендера на GPU, но не всегда и везде это возможно.
Короче, надо работать в сторону прямого подключения.
Лично я уже никогда не соглашусь на имплантацию, какие бы выгоды это не сулило. Да и мало кто из моих знакомых пошёл бы на это. Вероятно, нужно готовить в этом направлении пару следующих поколений, чтобы общество смогло принять идею массовой имплантации в мозг.
Рэки Кавахара сочинил несколько фантастических произведений («Sword Art Online», «Accel World»), в которых вместо имплантации проводилось беспроводное подавление нервных сигналов между мозгом и телом и перенаправление обратных связей в виртуальный мир или в дополненную реальность.

Интересно, насколько возможен такой безымплатнационный беспроводняк.
Ну, первичная зрительная кора лежит, по крайней мере частично, на поверхности мозга. Но часть адресатов сигналов сетчатки (четверохолмие — обратная связь движения глаз, эпифиз — цикл «сон — бодрствование») останутся не у дел.
Если 'общество' (читай государство) централизовано решит что ему нужны люди с имплантированными (чипованными или 'с разъемом' или как еще назовут эту операцию в будущем), то способов заставить добровольно-принудительно — миллион.

Самый простой пример — работу не чипованному гражданину найти будет сложнее (меньше будут платить) потому что государство в требованиях к лицензировани или еще где добавит требования на наличие работников с чипом, или налоги за нечипованных,,…

Или просто чипованным будет проще (читай эффективнее) управлять техникой — а значит работодатели будут искать именно таких.

Так что все мы там будем, как миленькие (нет вру, скорее наши дети или внуки).
Вам никто и не предлагает.
НЛО прилетело и опубликовало эту надпись здесь
В 3D-фильмах в кинотеатре всегда очень раздражало то, что в фокусе находится то, что задумал режисёр, а не то, куда я хочу посмотреть. Стоит отвлечься от основной сцены и попытаться разглядеть задник — появляется неприятное ощущение от того, что глаза пытаются сфокусироваться, а изображение чётче не становится (и думается мне при постоянном просмотре 3D это нанесёт вред, потому что мозг склонен адаптироваться к изменением и автофокус может ухудшится из-за бесполезности). В такие моменты очень хотелось бы, чтобы такие фильмы снимали с бесконечным фокусом (а при рендеринге на компьютере можно просто не применять имитацию фокуса). Это хотя бы уберёт неприятные ощущения, но, конечно, реализма не добавит, потому что в реальности так не бывает. Но, увы, так никто не делает, ибо зрелищность важнее.
есть серия статей где подробно расписаны проблемы с 3D-фильмами, их причины (часто просто денег жалко или опыта нет) и что происходит в плане улучщения ситуации — geektimes.ru/post/249496
Больше всего проблем по идее у 3D-фильмов. В игре не проблема менять фокусировку и точку обзора по движениям глаз игрока (были бы нужные датчики), но в фильме так делать не получится. Получается, что либо пререндеренная графика, либо реализм. В итоге скорее всего виртуальная реальность (если, конечно, она взлетит) убьёт пререндер — фильмы должны будут поставляться в виде векторного 3D и рендериться уже прямо во время просмотра, подстраиваясь под пользователя. А это огромные требования к производительности железа (с учётом того, что ещё и FPS надо в несколько раз повысить, раз даже незаметные микролаги приносят дискомфорт при полном погружении).

И тут встаёт вопрос в том, что может оказаться целесообразнее подавать информацию напрямую в мозг, а не с помощью экранов, ибо это создаёт кучу костылей в виде необходимости следить за глазами. А дальше мы вспоминаем, что мозг способен рендерить изображения на много порядков круче, чем любая видеокарта. В таком случае не лучше ли передавать в мозг изображения в векторном виде, чтобы он уже сам разбирался что к чему? Мне кажется, что это единственный способ создать полноценную виртуальную реальность — всё упирается в степень изученности работы мозга.
В игре не проблема менять фокусировку и точку обзора по движениям глаз игрока (были бы нужные датчики), но в фильме так делать не получится
С фокусировкой всё просто: если фильм и так в 3d (есть карта глубины), никто не мешает добавить размытие куда надо в соответствии с точкой, на которую направлен взгляд зрителя. Один элементарный шейдер, который потянет любая современная видеокарта. С обзором для начала можно воспользоваться обыкновенной технологией визуализации панорам: отображать картинку на вращающуюся сферу. Просто сферы будет две, под два глаза.
И тут встаёт вопрос в том, что может оказаться целесообразнее подавать информацию напрямую в мозг
Не может. Никто не пойдёт на сложную и опасную операцию на мозге ради такого.
Не может. Никто не пойдёт на сложную и опасную операцию на мозге ради такого.
'пока' не пойдет
По идее мозг выполняет обратную рендерингу операцию — превращает картинки с двух глаз в векторное трёхмерное изображение, которое уже обрабатывает (при этом делает это так хорошо, как пока не может ни один компьютер). Представьте, что человек печатает текст на принтере, отправляет по почте, получатель сканирует лист бумаги и распознаёт с помощью специальной программы текст. И это всё вместо того, чтобы отправить e-mail. Очевиден оверхед по затратам ресурсов, как со стороны отправителя, так и со стороны получателя (а между тем рендеринг 3D это очень и очень ресурсоёмкая задача для компьютера, если требуется фотореалистичность). Хотя элемент безопасности также присутствует (в файле может оказаться вирус, но ни один компьютерный вирус не самораспространяется на бумаге).

Конечно, на текущем уровне развития технологий пока нет иных вариантов, но в будущем они могут появиться. И «никто не пойдёт на сложную и опасную операцию» сегодня, но рано или поздно человечество придёт к тому, что операция перестанет быть сложной и опасной.
И «никто не пойдёт на сложную и опасную операцию» сегодня, но рано или поздно человечество придёт к тому, что операция перестанет быть сложной и опасной.
Я столько не проживу. Какой толк об этом сейчас говорить?
Да уж, лучше сферы братьев Латыповых для пробежек в виртуальной реальности ещё ничего не придумали:

image

image
Отличная идея, спасибо за наводку.
Наверно все ждут сразу вот такой виртуальной реальности
Чип в мозг и делов ) Главное чтобы потом настоящая реальность не пропала )
Зарегистрируйтесь на Хабре, чтобы оставить комментарий