Автопилот Tesla отключается за секунды до аварии ( 1 фото )

Присланное




Мы уже несколько раз обсуждали такое явление как "автопилот Tesla" и все эксперты указывают, что это никакой не автопилот, но водители воспринимают его именно так из-за маркетинговой компании Tesla. В результате машины с пассажирами попадают в аварии.

Так вот, по информации Verge, американский регулятор в сфере безопасности автомобильного транспорта занялся инженерным анализом работы автопилота Tesla. Эксперты Национального управления по безопасности дорожного движения США (National Highway Traffic Safety Administration, NHTSA) выяснили, что в большинстве зафиксированных случаев система автопилота Tesla отключается за несколько секунд до аварии.

Разработчики сделали так, чтобы привлечь компанию в суде по пункту обвинения в причинении умышленного ущерба из-за работы автопилота было нельзя.

Эксперты NHTSA уже несколько лет ведут расследование инцидентов, связанных с электромобилями Tesla в режиме автопилота. Часть из них закончились трагично как для водителей разных моделей Tesla, так и для пострадавших в этих авариях третьих лиц.

Tesla считает, что работа системы помощи водителю Full Self-Driving (FSD) является полностью безопасной при выполнении всех рекомендаций компании — руки на руле и внимательно смотреть на дорожную обстановку. В четвертом квартале 2021 года Tesla зафиксировала одну аварию на каждые 6,9 млн км использования системы FSD, тогда как, по данным NHTSA, авария в обычных машинах происходит каждые 640 тыс. км, когда за рулём человек.

Теперь NHTSA активировало дополнительное расследование работы автопилота Tesla в проданных в США 830 тыс. электромобилей. Специалисты хотят по их логам выяснить, как именно ведет себя автопилот и связанные с ним системы Tesla в критических ситуациях и не позволяли ли ранее эти системы снизить эффективность контроля над машиной водителем, который должен был следить за ситуацией, но не понял в итоге, что произошло из-за непредвиденных действий автопилота.

Претензии NHTSA заключаются в том, что при использовании автопилота водителям даётся возможность предпринять попытку избежать столкновения с препятствиями только за несколько секунд до аварии, а в большинстве ситуаций автопилот сообщает об этом только прямо перед аварией и отключается.

NHTSA выяснило, например, что в большинстве аварий с автомобилями спецслужб (машины экстренной помощи, полицейские и пожарные), которые стояли в правом ряду на парковке или в других местах дороги с включёнными предупредительными огнями, автопилот Tesla, управляя рулевым колесом, системой торможения и газом на определённых типах дорог, только за несколько секунд до столкновения отключился и передал управление водителю. В итоге человек не успевал среагировать и выполнить маневры уклонения или торможения.

Причем в 16 зарегистрированных авариях автопилот отключался за секунду до столкновения, а значит, у водителя вообще не было времени перехватить контроль над машиной, так как он надеялся на его работу, а время реакции обычного человека — около секунды.

Tesla в 2021 году заявляла, что инциденты со смертельным исходом или с фатальными повреждениями транспортных средств не могут быть виной производителя, так как собранные с электромобилей данные телеметрии показали, что автопилот был неактивен в момент каждого столкновения.

NHTSA считает, что система автопилота Tesla специально была разработана таким образом, чтобы отключаться за несколько секунд до столкновения при обнаружении неизбежной аварии. Эксперты и юристы отрасли пояснили, что даже, если это будет доказано, то привлечь Tesla к ответственности за аварии не получится. По условиям использования автопилота Tesla, всю ответственность за инциденты на дороге несут водители, а не компания.

8 января 2022 года Tesla повысила цену в США на активацию сервиса помощи водителю Full Self-Driving (FSD) с 10 тыс. до 12 тыс. Причина роста стоимости пакета FSD, включая доступ к автопилоту уровня 2 в соответствии со стандартами американского Общества автомобильных инженеров, является расширение функций сервиса и внедрение новых опций, а также доработка и тестирование.

Изначально Tesla продавала возможность будущего доступа к FSD за 7 тыс., потом на тестовые версии цена поднялась до 10 тыс. Данная система помощи на дороге не является полноценным автопилотом. Также FSD доступна не всем владельцам электромобилей Tesla. Ее можно активировать, если в электромобиле установлена с завода компьютерная бортовая система FSD 3.0 (HW3) или выше. Если электромобиль ей не оснащен, то владелец может ее поставить дополнительно за 1500.

Прошлым летом Tesla запустила подписку на сервис помощи водителю FSD за 199 в месяц или за 99, если у владельца Tesla есть пакет Enhanced Autopilot.

В ноябре прошлого года Tesla ввела в бету версию FSD обязательное требование к водителю согласиться на видеосъемку, чтобы можно было лучше понять причины и решить спорные ситуации в случаях угрозы безопасности и аварийных ситуаций. Также при активации FSD водители все равно должны держать руки на руле и постоянно следить за дорогой.

Tesla ранее не разрешала передавать право собственности на пакет автопилота Tesla Full Self-Driving другому владельцу. В прошлом году при перепродаже Model S Tesla удалённо отключила автопилот, потому что новый владелец за него не заплатил.

В апреле 2022 года СМИ сообщили, что Tesla в режиме Smart Summon (режим удалённого управления при помощи систем автопилота) не распознала препятствие в виде хвоста небольшого летающего средства на аэродроме (реактивного самолета бизнес-класса Cirrus SF50 Vision Jet) и позволила совершить столкновение со стоящим на стоянке небольшим самолетом без людей на борту.

Один из комментариев к этой теме на Хабре:

"А пусть регулятор просто скажет, что «находиться в позиции пассивного наблюдателя, но при этом сохранять situational awareness и готовность к немедленному действию» — это ситуация, ТРЕБУЮЩАЯ большого опыта, ответственности и специального обучения.

Например, в такой ситуации находится летчик-инструктор, позволяющий курсанту выполнять заход на посадку: выхватишь управление раньше — курсант не осознает ошибку и не получит навыка ее исправления! А выхватишь позже — можно и земли наесться… И хорошо, если без пассажиров… Так вот, после этих упражнений в «пассивной готовности» — инструктор вылазит из самолета с мокрой спиной!

Бессмысленно ожидать, что обычный человек будет готов находится в таком режиме сколько-то длительное время. Поэтому автопилот теслы в текущей реализации следует запретить. И я бы вообще пока (временно, пока техника не подтянется) — разрешил потребительскому автопилоту контролировать только один из каналов управления: либо скорость, либо направление движения. Если мы хотим, чтобы водитель оставался в контуре управления — нужно чтобы он либо управлял газом, либо рулил, либо и то и другое сразу. Ну в пробках можно разрешить автопилоту управлять рулем и газом в режиме «поползли-остановились-поползли». Но как только движение начало налаживаться — будьте добры, или газовать и рулить, чтобы находится в контуре!.."

Тут еще можно вспомнить про «Моральные принципы» беспилотных автомобилей

Материал взят: Тут

Другие новости

Навигация