Как стать автором
Обновить

Отчет Waymo о безопасности беспилотных автомобилей

Время на прочтение12 мин
Количество просмотров4.7K
Всего голосов 9: ↑8 и ↓1+7
Комментарии31

Комментарии 31

9,8 миллионов километров на 18 аварий.
Итого 0,544(4) миллиона километра на аварию
Тесла 7,39 миллиона километров на аварию.
Данные на 3 квартал 2020 года уже после появления функций работы со светофорами.
https://hevcars.com.ua/otchet-tesla-po-bezopasnosti-elektromobilej-za-tretij-kvartal-2020-goda/
Обе компании утверждают что берут все ДТП даже не включенные в полицейские и страховые отчёты (Тесла берёт данные напрямую с машины)
До недавнего разворачивания FSD Tesla обе компании не лезли в центр крупных городов.
Водители Гугла намного лучше чем водители Теслы и тем самым предотвращают большую долю ДТП, чем водители Теслы.
При этом Теслы не нуждаются в детализированных и часто обновляемых картах

А зачем тут повторять комментарий к прошлой статье по той теме? Или вы уже нашли разделение по категориям автострада/межгород/город, как обычно делают? Может исключены аварии, когда на светофоре машина под прямым углом в тестовый автомобиль въезжает? (там что Ваймо, что Тесла никак не помогут).
Да в прошлый раз мне нашли ссылку с сравнением безопасности по автострада-город. Благодаря чему можно в худшем случае для Теслы, поделить её результаты на шесть.
Результат всё равно будет в два раза лучше чем Ваймо, даже при нереалистичном сценарии, что Тесла исключительно ездит по автострадам, а Ваймо исключительно в городе. А разница максимальна из всех возможных сценарией, по данным которые мне скинули. Там разница от 2 до 6 раз.
Да в прошлый раз мне нашли ссылку с сравнением безопасности по автострада-город. Благодаря чему можно в худшем случае для Теслы, поделить её результаты на шесть.

В прошлый раз дали данные для Германии. Даже по ЕС нельзя проводить сравнения, а вы сравниваете с США, где водят совсем по другому и с отличающимися от всего ЕС правилами.
Потому снова сравнение некорректное. Вы даже не старались искать цифры по США?

Waymo — ездят тестировщики, в разных условия.
Tesla — ездят собственники, которые не включат автопилот в сложных условиях и возможно вовремя отключат.

Профессиональные тестировщики более вероятно что во время перехватят управление чем средний водитель в опасной ситуации.
Водители Гугла ездят только в очень малых и заранее определённых и выбранных руководством локациях, отличающихся простотой.
Водители Теслы ездят везде, и совершено не боятся лезть с ним специально на самые трудные участки дорог.
И совсем уж смешно, даже критикующие работу автопилота водитель Теслы, на дороге на которой автопилот регулярно уводил машину в отбойник продолжал его там включать. И в смертельной аварии играл на этой дороге в мобильную игру не обращая внимания на дорогу. Хоть не включать автопилот на этом участке дороге, просто вопиюще очевидное решение.

Эти люди — девиация. Не исключаю что тестировщики в том числе могли и специально доводить до аварии (если не в других участников движения) для сбора полной информации.
Я могу судить по себе: включал бы автопилот в солнечный день на нормальной широкополосной трассе, возможно для движения по прямой в час пик. Но не доверился бы ночью в пасмурный день и на сложных развязках.

их машина действительно врезалась в автомобиль, который ее подрезал и затормозил без причины, но компания считает, что это было сделано намеренно

Совершенно не оправдание, физически была возможность избежать столкновения, но робомобиль не смог, значит тест провален.

Откуда известно, что была такая возможность? Они пишут, что такие ситуации не единичны, значит обычно робот успевает затормозить. Может, именно в этой аварийной ситуации робот физически не успевал. Мы не знаем, и я не вижу явных указаний в тексте.

Как робот может физически не успеть в данной ситуации?
Та другая машина не могла незаметно обогнать робота, и не могла мновенно остановиться перед ним, как вкопанная. Времени оценить обстановку и затормозить было предостаточно.
Разве что робот вел груженую фуру на скорости 100 км/ч, в чем я очень сомневаюсь.

У меня нет данных о времени реакции робота при обработке изображений и информации от других датчиков. Средняя скорость реакции водителя около 1 секунды. У робота, вероятно, меньше, но тоже не мгновенная.

Кажется, что вы недооцениваете физичность некоторых ситуаций.
Например, 3 машины двигаются парралельно (разгоняются после светофора на многополосной дороге).
Сама по себе ситуация штатная.
Между машинами 2 м, скорость 60 км/ч
Если крайняя машина в один прекрасный момент решит протаранить бок центральной — ей потребуется 0,25 сек на весь маневр. Нет никакой возможности это предотвратить. Маневр в другую сторону невозможен — там другая машина, и при попытке совершить более резкий маневр ты достигнешь ее еще быстрее. Торможение происходит со скоростью до 10 м/с^2 — за 0,25 секунды разница составит пол корпуса — даже при идеальной реакции все равно попадут.
Это безотносительно машин с автопилотом.
Я говорил про конкретную описанную в статье ситуацию (робомобиль въехал в зад подрезавшего его авто), а не вообще про любые.
В вашем примере мне непонятно, откуда взялись 0.25 сек. на маневр.

и не могла мновенно остановиться перед ним

Робот не должен реагировать на любую разницу скоростей, иначе он будет постоянно получать ложные срабатывания и всех нервировать. На распознавание реальной угрозы нужно получить достаточное количество отсчётов, т.е. потратить время, и остатка времени может не хватить.


Разве что робот вел груженую фуру на скорости 100 км/ч, в чем я очень сомневаюсь.

Тормозной путь не зависит от массы автомобиля. Фуры прекрасно тормозят.

Также было несколько инцидентов, в которых автомобиль Waymo поворачивал направо, и что-то побуждало водителей позади него попытаться обогнать его справа. <...> Люди не ожидают, что кто-то будет проходить правый поворот по правой стороне – это могло вызвать у других водителей агрессию, приводившую к аварии.

Я не смог понять, о каком манёвре идёт речь. Проходить правый поворот по правой стороне — а разве надо как-то иначе?

Я тоже не понял.

Такое впечатление, что, возможно, робомобиль вынужденно поворачивал направо из второго ряда, т.к.его никто в первый ряд не пропускал, все обгоняли. Либо речь идёт о перестроении.
Для обозначения своих зон обслуживания Waymo использует карты, в то время как Tesla пытается автомобиль, который ездит на основе самых базовых карт. Подход Waymo позволяет компании значительно опережать Tesla, машины которой пользуются картами и не могут без них работать.

Ничего не понял. Waymo использует карты, но Waymo опережает Tesla, машины которой пользуются картами.
Статься явно смотрит не в ту сторону.

Будут ли аварии между людьми и машинами на автопилоте: безусловно, проблема ли это? Нет! Просто неприятность.

Смотреть надо именно на смертельные ДТП, и в корень их образования. Пьяное вождение, отвлёкся от дороги, устал, не заметил пешехода ( смотрел в другую сторону, не заметил пешеходный переход ) уснул,…

Так вот, автопилот фундамениально исключает эти ситуации. Если конечно это не кривой софт по типу убера, который с кучей лидаров не увидил пешехода…

Именно. Автопилот не обязан свести к минимуму вероятность возникнования вообще любых аварий, а вот смертельных происшествий обязан.
Т.е. я должен быть уверен, что сев в автомобиль и завалившись спать на заднее сиденье, я проснусь живым, а не то что мой автомобиль поцарапают.
Мне рассказывали об истории с «ассистентом экстренного торможения». То есть, автомобиль использует радар (или лидар) для обнаружения препятствий и автоматически экстренно тормозит в случае, если иначе неминуемо врежешься.

Наблюдалось ложное срабатывание — автомобиль без причин экстренно тормозил в определённом месте дороги перед люком.

Я предполагаю: крышка люка имела узор в виде уголковых отражателей. Радар или лидар ложно наблюдал большое неподвижное препятствие и приводил в действие тормоз.
Из личного опыта:

Сейчас, во время пандемии, я фактически не вижу waymo на дорогах (возможно потому что сам почти никуда не езжу). Но раньше видел их каждый день.

По моим впечалтениям, waymo очень часто создают аварийные ситуации, заставляют нервничать других водителей.
Основная причина: машины-роборы ведут себя сильно не так, как остальные водители. Они как буд то «в своем собственном мирке».

Из того, что помню:

— не редки случаи, когда на 2х полосной дороге две машины waymo едут рядом с одинаковой скоростью (максимально разрешенная). Даже полицейские едут там на 5-10 миль больше разрешенной скорости. Естественно, за ними образуется большой хвост нервничающих водителей, которые потом пытаются их обойти при любой возможности

— повороты waymo совершают очень медленно, часто притормаживая прямо в середине перекрестка. Ни раз был свидетелем как водители, поворачивающие за ними, резко тормозили из-за того, что машина waymo неожиданно решала нажать на тормоз посмередине перекрестка.

— светофоры, которые работают на «датчиках» (стрелка горит пока поток машин поворачивается) не редко выключаются после waymo, очевидно предполагая, что поток кончился. На самом деле, робот просто решил проехать перекресток пару раз притормизив.

— смена полосы производится черезвычайно медленно и черезвычайно заранее. Часто машина waymo мигает поворотником по несколько раз, при этом не соверщая маневра, пока не будет свободно несколько корпусов в другой полосе. Водители тупо не понимают, что ей надо. Часто пытаются ей уступить, что тоже не дает ожидаемого результата.

— несколько раз наблюдал, когда «пилоты» брали контроль. например, при ограничении в 35 миль в час, машина waymo на моих глазах ускорялась до 50+ (я шел 45) чтобы не пустить перед собой другую машину, которая ее обгоняла по правой полосе. В результате, водителю, который обгонял ее, пришлось нажать тормоз в пол. Да, не вина робота, но это не идиничный случай «замечательного» поведения сотрудников waymo, который я наблюдал. Кстати, один раз waymo чуть не въехала мне в бок, когда я совершал левый поворот под стрелку, а waymo — правый, на красный (так можно, если совершить полную остановку и пропустить всех). Но я думаю, что там тоже контроль был не у робота.

в общем, эти машины почти всегда создают на дороге хаос и панику. вокруг них всегда напряженная атмосфера и не удивительно, что «другие водители виноваты в авариях». Формально виноваты. По факту, я думаю, что большУю часть из этих аварий можно было бы назвать «спровоцированными».

PS Сам ничего против них не имею. Это цена, которую мы платим за прекрасное будущее. Очень жду беспилотного такси.
Ваш краткий отчет мне показался достовернее длинного отчета Waymo, т.к. производитель — лицо заинтересованное (пресловутое «time to market»), а обыватель — лицо беспристрастное.
Похоже на «эффект ученика» кстати. Некоторые вещи, типа соблюдения разрешённой скорости прямо один в один. Я недавно учился вождению и заметил, что «требуемый» стильно вождения сильно отличается от «фактического» стиля вождения. Если ты после окончания школы ты будешь ездить «как учили», то ты будешь сильно отличаться от прочих и будешь попадать в аварийные ситуации.

Возможно робомобилям придётся не только решать проблемы машинного зрения, но и добиваться большей формализации правил. Либо создавать «наглый» режим.
Возможно робомобилям придётся не только решать проблемы машинного зрения, но и добиваться большей формализации правил. Либо создавать «наглый» режим.

Так вроде же правила формализованы достаточно, там просто никто не следит за их выполнением, даже в примерах выше, в отличие от Waymo.
в отличие от Waymo

У меня есть сомнения, что в ИИ вождения есть вообще понятие правил движения. Я скорее поверю, что они ездят исключительно на основе множественных ошибок — скажем, изначально ИИ едет по любой стороне (в симуляции, разумеется) и постоянно попадает в ДТП — и так «учится» соблюдать одностороннее движение. То есть не «машина понимает, что по правилам — правостороннее движение», а лишь «предпочитает» правую сторону в 99,9% дорожных ситуаций из-за того, что попадала в минусовый score при езде по левой. А это означает, что в незнакомой дорожной ситуации ИИ может выбрать езду по левой стороне (вопреки ПДД), только лишь потому, что для этой ситуации нет данных или не происходило аварий при обучении.
У меня есть сомнения, что в ИИ вождения есть вообще понятие правил движения.

Ограничение скорости в данном случае — скорее всего есть как исходная информация. Они же по городу не разгоняются до максимальной возможной.
Ну да. Я про то, что наряду с законом, есть ещё какая то «неформальная норма». В случае ПДД, её соблюдать важно, что бы быть «предсказуемым» на дороге.

И вот компаниям придётся эту проблему решать. Мне кстати интересно как. Ведь от автопилота будут жать 100% соблюдения правил, но с другой стороны будет шум и гам если он будет попадать в аварии, даже если это произойдёт из-за того что он предпочитает следовать ПДД, а не неформальной норме.

Молодые водители решают это так, что на экзамене следуют ПДД, а дальше ездят уже по «неформальной норме», а как это решат производители автопилотов?
Ну да. Я про то, что наряду с законом, есть ещё какая то «неформальная норма». В случае ПДД, её соблюдать важно, что бы быть «предсказуемым» на дороге.

Знак с ограничением скорости в общем-то самое простое решение — здесь даже сильно думать не нужно, чтобы быть предсказуемым. Кто не хочет — получает в Германии по почте фотографии с просьбой оплатить штраф. И в целом превышений на 16 км/час очень мало, как в примере выше, так как блитцеры стоят сразу за знаками, если стоят.
Молодые водители решают это так, что на экзамене следуют ПДД, а дальше ездят уже по «неформальной норме», а как это решат производители автопилотов?

Пролоббируют необходимость соблюдения ПДД? Или начнут продажи там, где их соблюдают лучше?
в общем, эти машины почти всегда создают на дороге хаос и панику. вокруг них всегда напряженная атмосфера и не удивительно, что «другие водители виноваты в авариях». Формально виноваты. По факту, я думаю, что большУю часть из этих аварий можно было бы назвать «спровоцированными»
Роботы Ваймо изгоняют кожаные мешки с дорог?
Предварительные оценки делать можно и нужно, на основе отчетов, статистики, технических данных. Но, к сожалению, история человечества показывает, что предварительные оценки, посчитанные на начальный этапах, могут очень сильно отличаться от той ситуации, когда проект раскрутился и нашел более-менее широкое применение. Не хочу ванговать, просто окончательно расставить все на свои места может только время…
Для обозначения своих зон обслуживания Waymo использует карты, в то время как Tesla пытается автомобиль, который ездит на основе самых базовых карт. Подход Waymo позволяет компании значительно опережать Tesla, машины которой пользуются картами и не могут без них работать.

Хороший пример другим авторам, как важно вычитывать текст до публикации. Одной проверки на орфографические ошибки спеллчекером недостаточно.
поскольку за время, в пересчете равное восьми человеческим жизням, машины Waymo не совершали ошибок, приводящих к серьезным происшествиям, ни один человек пока не сравнится с ними по безопасности езды

Логическая ошибка. ИИ управления машин Waymo сравнивается с средним по всем водителям-людям. Тут либо надо и Waymo приплюсовать ко всем другим ИИ управления машин, либо сравнивать один ИИ с одним человеком. И тут наверняка найдётся человек, который за всю свою карьеру ни разу не был виновником ДТП и смог избежать множества аварий, которые не смогли бы избежать ИИ, в том числе Waymo.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий