Расследование скрытых аварий
Национальное управление безопасностью движения на трассах США (NHTSA) начало проверку по поводу аварий из-за сбоев в работе ПО Smart Summon и Actually Smart Summon, позволяющего автомобилям Tesla двигаться автономно на коротких расстояниях, например доехать до места, выбранного водителем, или выехать из тесного парковочного места, пишет The Register.
Причиной расследования стала официальная жалоба, поданная физическим лицом. При этом NHTSA известно и о других случаях, когда управляемые беспилотным ПО автомобили Tesla врезались в препятствия и другие транспортные средства. Двенадцать из них произошли при эксплуатации Smart Summon и еще четыре инцидента были заявлены клиентами, использующими его обновление Actually Smart Summon.
Расследование затрагивает около 2,6 млн автомобилей Tesla Model S, 3 и X, купленных с 2016 г.
Представители NHTSA заявили, что ведомство не получало никаких сообщений об этих предполагаемых инцидентах от Tesla, которая обязана раскрывать любые аварии с участием автомобиля, использующего ПО для беспилотного вождения на дорогах общего пользования. Издание предположило, что компания продолжит эту практику замалчивания, учитывая, насколько стал близок генеральный директор Tesla Илон Маск (Elon Musk) к избранному президенту США Дональду Трампу (Donald Trump).
Дефектное ПО
Smart Summon был запущен в 2019 г. и сразу подвергся широкой критике из-за частых глюков и склонности вообще не работать. Он заставлял автомобили врезаться в различные объекты. Особой его проблемой стали тонкие деревья. Actually Smart Summon дебютировал в сентябре 2024 г. В отзывах на форумах Tesla говорится, что он стал лучше, но проблемы остаются.
«На самом деле Smart Summon и Full Self-Driving являются дефектными инженерными прототипами и не должны допускаться на дороги», — прокомментировал изданию Дэн О'Дауд (Dan O'Dowd), миллиардер и основатель Dawn Project. Full Self-Driving (FSD) — это более универсальное программное обеспечение Tesla для автономного вождения.
Рекламные обещания Tesla
«Tesla утверждает, что ее программное обеспечение безопасно, но, как и в случае с программным обеспечением для полного автономного вождения, она занижала количество аварий, в которых участвовало ее программное обеспечение, а затем использовала эти неполные данные, чтобы нарисовать ложную картину безопасности программного обеспечения», — утверждает О'Дауд.
У NHTSA неоднократно возникали претензии к Tesla по поводу беспилотных автомобилей и это расследование не единственное.
Весной 2024 г., например, Reuters сообщал, что NHTSA начало изучать ситуацию с новыми инцидентами, возникшими после отзыва автопроизводителем более двух млн автомобилей для переустановки ПО автономного вождения. NHTSA посчитало, что Tesla в обновлении не устранила дефект, «который представляет необоснованный риск для безопасности».
Ведомство также выразило беспокойство из-за названия Full Self-Driving (FSD), которое «может заставить водителей поверить в то, что у автопилота более широкие возможности, чем на самом деле, и побудить водителей чрезмерно полагаться на него».
В апреле 2024 г. CNews писал о том, что Tesla удалось урегулировать во внесудебном порядке иск с со стороны семьи водителя, погибшего в 2018 г. в результате аварии автомобиля Model X, управляемого автопилотом. Катастрофа произошла в 2018 г. Машина, где на водительском месте сидел Вей Лунь Хуан (Wei Lun Huang), сотрудник компании Apple, врезалась в отбойник.
Согласно результатам расследования, система предупреждений о столкновениях в салоне автомобиля, вопреки заявлениям производителя, не подала нужных сигналов, а система аварийного торможения, которая должна была остановить машину при опасном сближении с барьером, так и не сработала должным образом.