Tesla Autopilot та Full Self-Driving причетні до сотень аварій та десятків смертельних випадків – NHTSA

Опубликовал
Вадим Карпусь

Національна Адміністрація Безпеки Дорожнього Руху США (NHTSA) розслідувала 956 ДТП, учасниками яких стали електромобілі Tesla з функціями Autopilot та Full Self-Driving (FSD). При чому розслідування стосувалося лише інцидентів, які трапилися в проміжок часу з січня 2018 року й до серпня 2023 року. Загалом аварій було більше.

NHTSA розпочала розслідування після кількох інцидентів, коли автомобілі Tesla врізалися в нерухомі машини швидкої допомоги, припарковані на узбіччі дороги. Більшість цих інцидентів відбувалися з настанням темряви, коли ПЗ авто ігнорувало заходи застереження, включаючи попереджувальні вогні, проблискові маячки, конуси та світлові стрілки.

У цих ДТП (в деяких з них також брали участь інші транспортні засоби) загинули 29 людей. Було також 211 аварій, в яких «лобова площина Tesla врізалася в транспортний засіб або перешкоду на шляху». Ці аварії, які часто були найсерйознішими, призвели до 14 смертей і 49 травм.

У своєму розслідуванні агентство виявило, що Autopilot — і, в деяких випадках, FSD — не був розроблений, щоб підтримувати залучення водія. Tesla заявляє, що попереджає своїх клієнтів про те, що їм потрібно бути уважними під час використання Autopilot та FSD, тобто тримати руки на кермі та дивитися на дорогу. Але NHTSA каже, що в багатьох випадках водії стають надмірно самовдоволеними та втрачають увагу. А коли наставала необхідність реагувати, часто було вже надто пізно.

Онлайн-курс "Корпоративна культура" від Laba.
Як з нуля побудувати стабільну корпоративну культуру, систему внутрішньої комунікації та бренд роботодавця, з якими ви підвищите продуктивність команди, — пояснить HR-директор Work.ua.
Детальніше про курс

Агентство виявило, що у 59 ДТП у водіїв Tesla було достатньо часу, «5 або більше секунд», щоб відреагувати перш ніж врізатися в інший об’єкт. У 19 із цих аварій небезпека була видима протягом 10 або більше секунд до зіткнення. Переглядаючи журнали аварій і дані, надані Tesla, NHTSA виявило, що у більшості проаналізованих аварій водії не гальмували або не кермували, щоб уникнути небезпеки.

NHTSA також порівняло функції автоматизації Tesla рівня 2 (L2) з продуктами, доступними в автомобілях інших компаній. На відміну від інших систем, Autopilot скоріше усуває водія від управління, ніж надає допомогу в управлінні. Це «перешкоджає» водіям бути залученими в задачу управління автомобілем. Tesla виділяється в галузі в її підході до технології L2 через невідповідність слабкого залучення водія дозволеним робочим можливостям Autopilot. Навіть назва бренду «Autopilot» вводить в оману споживачів. Продукти Tesla спонукають водіїв думати, що вони здібніші та ефективніші, ніж вони є насправді. Інші виробники застосовують слова на кшталт «допомога».

NHTSA підсумовує, що водії, які використовують Autopilot або більш просунуту систему, Full Self-Driving, «не були достатньо залучені до задачі керування», а технологія Tesla «не забезпечувала належним чином те, щоб водії зосереджували свою увагу на задачі керування».

NHTSA визнає, що його дослідження може бути неповним через «прогалини» в телеметричних даних Tesla. Це може означати, що аварій із залученням Autopilot та FSD набагато більше, ніж вдалося виявити Адміністрації.

Джерело: The Verge

Disqus Comments Loading...