Рубрики NoticiasAutoTecnologías

El piloto automático y la conducción autónoma total de Tesla, implicados en cientos de accidentes y decenas de víctimas mortales – NHTSA

Опубликовал
Вадим Карпусь

La Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos (NHTSA) investigó 956 accidentes en los que se vieron implicados vehículos eléctricos Tesla con funciones Autopilot y Full Self-Driving (FSD). La investigación solo abarcó los incidentes ocurridos entre enero de 2018 y agosto de 2023. En general, hubo más accidentes.

La NHTSA inició una investigación tras varios incidentes en los que coches Tesla chocaron contra ambulancias paradas y aparcadas en el arcén. La mayoría de estos incidentes se produjeron al anochecer, cuando el software del coche ignoró las medidas de advertencia, incluidas las luces de advertencia, las balizas intermitentes, los conos y las flechas luminosas.

En estos accidentes (en algunos de los cuales también se vieron implicados otros vehículos) murieron 29 personas. También se produjeron 211 choques en los que el plano «frontal del Tesla chocó contra un» vehículo u obstáculo en la trayectoria. Estos accidentes, que a menudo fueron los más graves, causaron 14 muertos y 49 heridos.

En su investigación, la agencia descubrió que Autopilot — y, en algunos casos, FSD — no estaban diseñados para mantener el compromiso del conductor. Tesla dice que advierte a sus clientes de que deben estar atentos cuando utilizan Autopilot y FSD, lo que significa mantener las manos en el volante y los ojos en la carretera. Pero la NHTSA dice que, en muchos casos, los conductores se vuelven demasiado complacientes y pierden la concentración. Y cuando llega el momento de reaccionar, a menudo es demasiado tarde.

La agencia descubrió que en 59 accidentes, los conductores de Tesla tuvieron tiempo suficiente, «5 segundos o más», para reaccionar antes de chocar contra otro objeto. En 19 de estos accidentes, el peligro fue visible durante 10 segundos o más antes de la colisión. A través de una revisión de los registros de accidentes y los datos proporcionados por Tesla, la NHTSA descubrió que en la mayoría de los accidentes analizados, los conductores no frenaron ni viraron para evitar el peligro.

La NHTSA también comparó las funciones de automatización de nivel 2 (L2) de Tesla con las disponibles en los vehículos de otras empresas. A diferencia de otros sistemas, Autopilot retira al conductor del asiento del conductor en lugar de ayudarle en la conducción. Esto «evita» que los conductores se impliquen en la tarea de conducir. Tesla destaca en el sector en su enfoque de la tecnología L2 por el desajuste entre la escasa implicación del conductor y las capacidades de actuación permitidas del Autopilot. Incluso el nombre de la marca «Autopilot» es engañoso para los consumidores. Los productos Tesla hacen creer a los conductores que son más capaces y eficientes de lo que realmente son. Otros fabricantes utilizan palabras como «asistencia».

La NHTSA concluye que los conductores que utilizaban Autopilot o el sistema más avanzado, Full Self-Driving, «no estaban suficientemente comprometidos con la tarea de conducir» y la tecnología de Tesla «no garantizaba adecuadamente que los conductores estuvieran concentrados en la tarea de conducir».

La NHTSA reconoce que su estudio puede estar incompleto debido a las «lagunas en los datos de telemetría de Tesla. Esto podría significar que hay muchos más accidentes con Autopilot y FSD de los que la Administración ha podido identificar.

Fuente: The Verge

Los comentarios de Disqus están cargando....