Инцидент произошёл 1 марта в городе Делрей-Бич (США, штат Флорида) на федеральной автостраде 441. Американские власти ведут расследование, по результатам которого компанию Tesla могут заставить произвести масштабный отзыв своих автомобилей.
7 мая 2016 года здесь же во Флориде, в городе Уиллистон, случилось знаменательное и трагическое событие: первое документально зафиксированное смертельное ДТП с участием автомобиля, находившегося в режиме автопилота. Тем автомобилем был электрический лифтбек Tesla Model S. Его водитель Джошуа Браун проявил беспечность, доверился автоматике и перестал следить за дорогой, а она не распознала пересекавшую автостраду фуру, и Tesla на полном ходу угодила под полуприцеп. От удара машине снесло крышу, водитель вскоре скончался в больнице от полученных травм.
С тех пор электромобили Tesla не раз попадали в аварии, в том числе смертельные и довольно странные, когда машина ни с того ни сего начинала двигаться сама, но привлечь производителя к ответственности американские власти так и не решились, поскольку опыта в расследовании подобных дел (аварий с участием беспилотников) у полиции мало, и непонятно, кто, собственно, виноват во всех этих инцидентах. ДТП, имевшее место в Делрей-Бич может стать роковым для компании Tesla, поскольку произошло ровно по тому же сценарию, что авария трёхлетней давности, в которой погиб Джошуа Браун.
Согласно протоколу, опубликованному вчера американским Национальным советом по безопасности на транспорте (NTSB), водитель электромобиля Tesla Model 3 (СМИ выяснили, что его звали Джереми Берен Баннер) рано утром 1 марта двигался по 441-й автостраде с превышением скорости (68 миль/ч против разрешённых 55 миль/ч или 109 км/ч против 88 км/ч соответственно) и врезался в пересекавший трассу грузовик с полуприцепом. Водитель фуры выезжал с прилегающей территории фермы и хотел повернуть налево, но сильно замедлился на перекрёстке. В результате вновь снесённая крыша и труп. Электроника Теслы зафиксировала, что мистер Баннер активировал режим автопилота за 10 секунд до столкновения и тут же отпустил руль. Почему он не увидел фуру, мы уже никогда не узнаем. А вот почему её не увидел автопилот Теслы, предстоит выяснить следственным органам.
Добавим, что в репортажах местных телеканалов видно, что стенки у полуприцепа белого цвета, то есть искусственный интеллект мог принять бок фуры за небо, а потому и не стал тормозить. Ровно по той же причине автоматика не сработала в аварии с Джошуа Брауном, и очень странно, что за три года Tesla так и не научила свой автопилот справляться с подобными ситуациями, то есть распознавать светлые фуры, пересекающие проезжую часть. Этой проблемы не было бы, если бы Tesla оснащала свои машины хотя бы одним фронтальным лидаром, который по сути, ощупывает пространство и точно заметил бы крупный физический объект, но компания по-прежнему делает ставку лишь на камеры, радары, ультразвуковые датчики и сигнал GPS. При этом в феврале Илон Маск пообещал, что к концу 2020 года явит миру полностью готовый автопилот, которому не понадобится контроль со стороны человека.
Пока же автопилот Теслы (NTSB, к слову, использует для его обозначения более корректную аббревиатуру ADAS, которая расшифровывается как «продвинутая система помощи водителю») требует от водителей постоянного визуального контроля за ситуацией на дороге и готовности в любой момент взять управления на себя, то есть является системой первого уровня по беспилотной классификации SAE. Если водитель отпускает руль, то система подаёт тревожный сигнал, но не отключается. Этим пользуются многие тесловоды: они игнорируют предупреждения, не смотрят на дорогу и, сидя на месте водителя, занимаются своими делами, а иные даже умудряются поспать! Более того, 4 июня близ города Фримонт, штат Калифорния, очевидцы сняли на видео сотрудника службы технической поддержки Tesla, то есть даже в самой компании не соблюдают правила пользования автопилотом…
Спрашивается: почему Tesla не сделает так, чтобы в случаях, когда водители бросают руль, автопилот снижал скорость и отруливал к обочине? Почему не поставят в салон камеру слежения, направленную на лицо водителя, как это сделали в компании Nissan? Вполне логично, что если водитель не смотрит на дорогу, то неконтролируемую езду нужно немедленно прекращать. Возможно потому, что Tesla использует клиентов, как бесплатных испытателей своих инновационных автомобилей, ведь ясно, что люди будут активировать автопилот в десятки или даже сотни раз реже, если он не будет работать без их неусыпного контроля – мол, какой смысл в автопилоте, если за ним нужно всё время следить?
Между тем компанию Tesla могут заставить перепрограмировать свой автопилот так, чтобы он выключался в случаях, когда водители не держатся за руль и не следят за дорогой: к расследованию аварии в Делрей-Бич подключилось Национальное управление безопасностью дорожного движения (NHTSA), наделённое правом объявлять отзывные компании. В NHTSA всерьёз обеспокоены тем, что владельцы электромобилей Tesla используют автопилот ненадлежащим образом, и могут потребовать от производителя существенно ограничить область его применения. Для внедрения алгоритма автоторможения в случаях неконтролируемой езды не потребуется даже отгонять машины на сервис – Tesla традиционно обновляет весь софт «по воздуху». Другое дело, что если NHTSA признает Теслу виновной в гибели хотя бы одного человека, то откроет ящик Пандоры: с компанией тут же начнут судиться тысячи недовольных клиентов и требовать компенсации за некачественный товар – как тебе такая перспектива, Илон Маск?