Tesla Autopilot и Full Self-Driving причастны к сотням аварий и десяткам смертельных случаев — NHTSA

Опубликовал
Вадим Карпусь

Национальная Администрация Безопасности Дорожного Движения США (NHTSA) расследовала 956 ДТП, участниками которых стали электромобили Tesla с функциями Autopilot и Full Self-Driving (FSD). Причем расследование касалось только инцидентов, которые произошли в промежуток времени с января 2018 года и до августа 2023 года. В целом аварий было больше.

NHTSA начала расследование после нескольких инцидентов, когда автомобили Tesla врезались в неподвижные машины скорой помощи, припаркованные на обочине дороги. Большинство этих инцидентов происходили с наступлением темноты, когда ПО авто игнорировало меры предостережения, включая предупредительные огни, проблесковые маячки, конусы и световые стрелки.

В этих ДТП (в некоторых из них также участвовали другие транспортные средства) погибли 29 человек. Было также 211 аварий, в которых «фронтальная плоскость Tesla врезалась в транспортное средство или препятствие на пути». Эти аварии, которые часто были самыми серьезными, привели к 14 смертям и 49 травмам.

В своем расследовании агентство обнаружило, что Autopilot — и, в некоторых случаях, FSD — не был разработан, чтобы поддерживать вовлечение водителя. Tesla заявляет, что предупреждает своих клиентов о том, что им нужно быть внимательными при использовании Autopilot и FSD, то есть держать руки на руле и смотреть на дорогу. Но NHTSA говорит, что во многих случаях водители становятся чрезмерно самодовольными и теряют внимание. А когда наступала необходимость реагировать, часто было уже слишком поздно.

Онлайн-інтенсив "Як створити рекомендаційну модель за 2 дні" від robot_dreams.
Ви пройдете етапи вибору, навчання, оцінки рекомендаційної моделі для електронної бібліотеки та отримаєте індивідуальний фідбек від лекторки.
Приєднатись до інтенсиву

Агентство обнаружило, что в 59 ДТП у водителей Tesla было достаточно времени, «5 или более секунд», чтобы отреагировать, прежде чем врезаться в другой объект. В 19 из этих аварий опасность была видима в течение 10 или более секунд до столкновения. Просматривая журналы аварий и данные, предоставленные Tesla, NHTSA обнаружило, что в большинстве проанализированных аварий водители не тормозили или не управляли, чтобы избежать опасности.

NHTSA также сравнило функции автоматизации Tesla уровня 2 (L2) с продуктами, доступными в автомобилях других компаний. В отличие от других систем, Autopilot скорее отстраняет водителя от управления, чем оказывает помощь в управлении. Это «препятствует» водителям быть вовлеченными в задачу управления автомобилем. Tesla выделяется в отрасли в ее подходе к технологии L2 из-за несоответствия слабого вовлечения водителя разрешенным рабочим возможностям Autopilot. Даже название бренда «Autopilot» вводит в заблуждение потребителей. Продукты Tesla заставляют водителей думать, что они более способные и эффективные, чем они есть на самом деле. Другие производители применяют слова вроде «помощь».

NHTSA заключает, что водители, использующие Autopilo или более продвинутую систему, Full Self-Driving, «не были достаточно вовлечены в задачу управления», а технология Tesla «не обеспечивала должным образом то, чтобы водители сосредотачивали свое внимание на задаче управления».

NHTSA признает, что его исследование может быть неполным из-за «пробелов» в телеметрических данных Tesla. Это может означать, что аварий с участием Autopilot и FSD гораздо больше, чем удалось обнаружить Администрации.

Источник: The Verge

Disqus Comments Loading...