El impactante número de víctimas del piloto automático de Tesla: 17 muertes en 736 accidentes

El sistema de asistencia al conductor de la marca, conocido como Autopilot, ha estado involucrado en muchos más accidentes de los que han sido informados

Compartir
Compartir articulo
(Illustración por Emily Sabens/The Washington Post; KTVU-TV/AP; iStock)
(Illustración por Emily Sabens/The Washington Post; KTVU-TV/AP; iStock)

El autobús escolar mostraba su señal de alto y luces rojas de advertencia intermitentes, según un informe policial, cuando Tillman Mitchell, de 17 años, se bajó una tarde de marzo. Luego, un Tesla Model Y se acercó por la autopista 561 de Carolina del Norte.

El automóvil, supuestamente en modo de piloto automático, nunca disminuyó la velocidad.

Golpeó a Mitchell a una velocidad de 75 kilómetros por hora. El adolescente salió disparado contra el parabrisas, voló por los aires y aterrizó boca abajo en la carretera, según su tía abuela, Dorothy Lynch. El padre de Mitchell escuchó el choque y salió corriendo de su porche para encontrar a su hijo tirado en medio de la carretera.

“Si hubiera sido un niño más pequeño”, dijo Lynch, “el niño estaría muerto”.

El accidente en el condado de Halifax en Carolina del Norte, donde una tecnología futurista se precipitó por una carretera rural con consecuencias devastadoras, fue uno de los 736 accidentes en Estados Unidos, según los datos de la Administración de Seguridad del Tráfico en las Carreteras. La cantidad de accidentes de este tipo ha aumentado en los últimos cuatro años, según muestran los datos, lo que refleja los peligros asociados con el uso cada vez más generalizado de la tecnología futurista de asistencia al conductor de Tesla, así como la creciente presencia de automóviles en las carreteras del país.

La cantidad de muertes y lesiones graves asociadas con Autopilot también ha crecido significativamente, según muestran los datos. Cuando las autoridades publicaron por primera vez un recuento parcial de los accidentes relacionados con el piloto automático en junio de 2022, contaron solo tres muertes definitivamente vinculadas a la tecnología. Los datos más recientes incluyen al menos 17 incidentes mortales, 11 de ellos desde mayo pasado, y cinco heridos graves.

Mitchell sobrevivió al accidente de marzo, pero sufrió una fractura de cuello y una pierna rota y tuvo que ser colocado en un ventilador. Todavía sufre problemas de memoria y tiene problemas para caminar. Su tía abuela dijo que el incidente debería servir como advertencia sobre los peligros de la tecnología.

“Rezo para que este sea un proceso de aprendizaje”, dijo Lynch. “La gente confía demasiado cuando se trata de una pieza de maquinaria”.

El CEO de Tesla, Elon Musk, ha dicho que los autos que operan en el modo de piloto automático de Tesla son más seguros que los que son conducidos únicamente por conductores humanos, citando las tasas de accidentes cuando se comparan los modos de conducción. Ha presionado al fabricante de automóviles para que desarrolle e implemente funciones programadas para maniobrar en las carreteras (navegar autobuses escolares detenidos, camiones de bomberos, señales de alto y peatones), argumentando que la tecnología marcará el comienzo de un futuro más seguro y prácticamente libre de accidentes. Si bien es imposible decir cuántos accidentes se pudieron haber evitado, los datos muestran fallas claras en la tecnología que se está probando en tiempo real en las carreteras de Estados Unidos.

Los 17 accidentes fatales de Tesla revelan patrones distintos, encontró The Post: cuatro involucraron una motocicleta. Otro involucró un vehículo de emergencia. Mientras tanto, algunas de las decisiones de Musk, como ampliar ampliamente la disponibilidad de las funciones y despojar a los vehículos de los sensores de radar, parecen haber contribuido al aumento informado de los incidentes, según los expertos que hablaron con The Post.

Tesla y Elon Musk no respondieron a una solicitud de comentarios.

NHTSA dijo que un informe de un accidente que involucró la asistencia del conductor no implica en sí mismo que la tecnología fuera la causa. “NHTSA tiene una investigación activa sobre el piloto automático de Tesla, incluida la conducción autónoma”, dijo la portavoz Veronica Morales, y señaló que la agencia no comenta sobre investigaciones abiertas. “NHTSA le recuerda al público que todos los sistemas avanzados de asistencia al conductor requieren que el conductor humano tenga el control y esté completamente involucrado en la tarea de conducir en todo momento. En consecuencia, todas las leyes estatales responsabilizan al conductor humano por la operación de sus vehículos”.

Musk ha defendido repetidamente su decisión de impulsar las tecnologías de asistencia al conductor a los propietarios de Tesla, argumentando que el beneficio supera el daño.

El personal de emergencia trabaja en la escena donde un SUV eléctrico Tesla se estrelló contra una barrera en la autopista US 101 en Mountain View, California, el 23 de marzo de 2018. El ingeniero de Apple que murió cuando su Tesla Model X se estrelló contra la barrera de concreto se quejó antes de su muerte. que el sistema de piloto automático del SUV funcionaría mal en el área donde ocurrió el accidente. (KTVU-TV/AP)
El personal de emergencia trabaja en la escena donde un SUV eléctrico Tesla se estrelló contra una barrera en la autopista US 101 en Mountain View, California, el 23 de marzo de 2018. El ingeniero de Apple que murió cuando su Tesla Model X se estrelló contra la barrera de concreto se quejó antes de su muerte. que el sistema de piloto automático del SUV funcionaría mal en el área donde ocurrió el accidente. (KTVU-TV/AP)

“En el punto en el que crees que agregar autonomía reduce las lesiones y la muerte, creo que tienes la obligación moral de implementarlo a pesar de que mucha gente te va a demandar y culpar”, dijo Musk el año pasado. “Porque las personas cuyas vidas salvaste no saben que sus vidas fueron salvadas. Y las personas que ocasionalmente mueren o se lesionan, definitivamente lo saben, o su estado lo sabe”.

La ex asesora principal de seguridad de la NHTSA, Missy Cummings, profesora de la Facultad de Ingeniería y Computación de la Universidad George Mason, dijo que el aumento de los accidentes de Tesla es preocupante.

“Tesla está teniendo choques más severos y fatales que las personas en un conjunto de datos normal”, dijo en respuesta a las cifras analizadas por The Post. Una causa probable, dijo, es la implementación ampliada durante el último año y medio de Full Self-Driving, que lleva la asistencia al conductor a las calles urbanas y residenciales. “El hecho de que… cualquiera y todos puedan tenerlo. … ¿Es razonable esperar que eso pueda conducir a un aumento de las tasas de accidentes? Seguro, absolutamente”.

Cummings dijo que la cantidad de muertes en comparación con los accidentes generales también era una preocupación.

No está claro si los datos capturan todos los choques que involucran los sistemas de asistencia al conductor de Tesla. Los datos de la NHTSA incluyen algunos incidentes en los que se “desconoce” si se utilizó el piloto automático o la conducción autónoma total. Esos incluyen tres muertes, incluida una el año pasado.

NHTSA, el principal regulador de seguridad automotriz del país, comenzó a recopilar datos después de que una orden federal en 2021 exigiera a los fabricantes de automóviles que revelaran los accidentes que involucran tecnología de asistencia al conductor. El número total de choques que involucran la tecnología es minúsculo en comparación con todos los incidentes en la carretera; NHTSA estima que más de 40,000 personas murieron en accidentes de todo tipo el año pasado.

Desde que se introdujeron los requisitos de informes, la gran mayoría de los accidentes relacionados con la automatización 807 han involucrado a Tesla, según muestran los datos. Tesla, que ha experimentado más agresivamente con la automatización que otros fabricantes de automóviles, también está relacionado con casi todas las muertes.

Subaru ocupa el segundo lugar con 23 accidentes informados desde 2019. La enorme brecha probablemente refleja un mayor despliegue y uso de la automatización en la flota de vehículos de Tesla, así como la mayor variedad de circunstancias en las que se alienta a los conductores de Tesla a usar el piloto automático.

El piloto automático, que Tesla introdujo en 2014, es un conjunto de características que permiten que el automóvil maniobre por sí mismo desde la rampa de entrada a la rampa de salida de la autopista, manteniendo la velocidad y la distancia detrás de otros vehículos y siguiendo las líneas de los carriles. Tesla lo ofrece como una característica estándar en sus vehículos, de los cuales más de 800 000 están equipados con Autopilot en las carreteras de EEUU, aunque las iteraciones avanzadas tienen un costo.

La conducción autónoma total, una característica experimental que los clientes deben comprar, permite a los Tesla maniobrar del punto A al B siguiendo indicaciones paso a paso a lo largo de una ruta, deteniéndose ante señales de alto y semáforos, girando y cambiando de carril, y respondiendo a los peligros en el camino. Con cualquiera de los sistemas, Tesla dice que los conductores deben monitorear el camino e intervenir cuando sea necesario.

El aumento de los accidentes coincide con el lanzamiento agresivo de Tesla de Full Self-Driving, que se ha expandido de alrededor de 12,000 usuarios a casi 400,000 en poco más de un año. Casi dos tercios de todos los accidentes de asistencia al conductor que Tesla ha informado a la NHTSA ocurrieron el año pasado.

Philip Koopman, profesor de la Universidad Carnegie Mellon que ha realizado investigaciones sobre la seguridad de los vehículos autónomos durante 25 años, dijo que la prevalencia de los Tesla en los datos plantea preguntas cruciales.

“Un número significativamente más alto ciertamente es motivo de preocupación”, dijo. “Necesitamos entender si se debe a choques realmente peores o si hay algún otro factor, como una cantidad dramáticamente mayor de millas conducidas con el piloto automático activado”.

La escena de un accidente que involucró a un Tesla y una motocicleta el 24 de julio de 2022 cerca de Draper, Utah. (AP)
La escena de un accidente que involucró a un Tesla y una motocicleta el 24 de julio de 2022 cerca de Draper, Utah. (AP)

En febrero, Tesla emitió un retiro del mercado de más de 360,000 vehículos equipados con Full Self-Driving debido a preocupaciones de que el software hizo que sus vehículos desobedecieran los semáforos, las señales de alto y los límites de velocidad.

El incumplimiento de las leyes de tránsito, según documentos publicados por la agencia de seguridad, “podría aumentar el riesgo de una colisión si el conductor no interviene”. Tesla dijo que solucionó los problemas con una actualización de software inalámbrica, abordando el riesgo de forma remota.

Si bien Tesla modificó constantemente su software de asistencia al conductor, también tomó la medida sin precedentes de eliminar sus sensores de radar de los autos nuevos y deshabilitarlos de los vehículos que ya estaban en la carretera, privándolos de un sensor crítico mientras Musk impulsaba un conjunto de hardware más simple en medio de la crisis mundial de escasez de chips de computadora. Musk dijo el año pasado: “Solo el radar de muy alta resolución es relevante”.

Recientemente ha tomado medidas para reintroducir sensores de radar, según documentos gubernamentales informados por primera vez por Electrek.

En una presentación de marzo, Tesla afirmó que los accidentes de conducción autónoma total a una tasa al menos cinco veces menor que los vehículos en conducción normal, en una comparación de millas recorridas por colisión. Esa afirmación, y la caracterización de Musk del piloto automático como “inequívocamente más seguro”, es imposible de probar sin acceder a los datos detallados que posee Tesla.

El piloto automático, en gran parte un sistema de autopistas, opera en un entorno menos complejo que la variedad de situaciones experimentadas por un usuario típico de la carretera.

No está claro cuál de los sistemas estaba en uso en los accidentes fatales: Tesla le pidió a la NHTSA que no divulgue esa información. En la sección de los datos de la NHTSA que especifican la versión del software, los incidentes de Tesla dicen, en mayúsculas, “redactado, puede contener información comercial confidencial”.

FOTO DE ARCHIVO: Un sedán Tesla después de chocar contra un vehículo del Departamento de Policía de Laguna Beach estacionado en Laguna Beach, California, EEUU, en esta foto del 29 de mayo de 2018. Departamento de Policía de Laguna Beach/Folleto a través de REUTERS
FOTO DE ARCHIVO: Un sedán Tesla después de chocar contra un vehículo del Departamento de Policía de Laguna Beach estacionado en Laguna Beach, California, EEUU, en esta foto del 29 de mayo de 2018. Departamento de Policía de Laguna Beach/Folleto a través de REUTERS

Tanto el piloto automático como la conducción autónoma completa han sido objeto de escrutinio en los últimos años. El secretario de Transporte, Pete Buttigieg, dijo a Associated Press el mes pasado que Autopilot no es un nombre apropiado “cuando la letra pequeña dice que debe tener las manos en el volante y los ojos en la carretera en todo momento”.

NHTSA ha abierto múltiples investigaciones sobre los accidentes de Tesla y otros problemas con su software de asistencia al conductor. Uno se ha centrado en el “frenado fantasma”, un fenómeno en el que los vehículos reducen la velocidad abruptamente ante peligros imaginarios.

En un caso el año pasado, detallado por The Intercept, un Tesla Model S que supuestamente usaba la asistencia del conductor frenó repentinamente en el tráfico en el Puente de la Bahía de San Francisco, lo que resultó en una colisión de ocho vehículos que dejó nueve heridos, incluido un niño de 2 años.

En otras quejas presentadas ante la NHTSA, los propietarios dicen que los autos pisaron los frenos cuando se encontraron con camiones en los carriles que se aproximaban.

Muchos choques involucran configuraciones y condiciones similares. NHTSA ha recibido más de una docena de informes de Teslas que se estrellaron contra vehículos de emergencia estacionados mientras estaban en piloto automático, por ejemplo. El año pasado, la NHTSA actualizó su investigación de esos incidentes a un “análisis de ingeniería”.

También el año pasado, la NHTSA abrió dos investigaciones especiales consecutivas sobre accidentes fatales que involucraron a vehículos y motociclistas de Tesla. Uno ocurrió en Utah, cuando un motociclista en una Harley-Davidson viajaba en un carril de alta ocupación en la Interestatal 15 en las afueras de Salt Lake City, poco después de la 1 am, según las autoridades. Un Tesla en piloto automático golpeó la moto por detrás.

FOTO ARCHIVO: Un logotipo de Tesla en Tesla Shanghái Gigafactory en Shanghái, China 7 de enero de 2019. REUTERS/Aly Song/Foto de archivo
FOTO ARCHIVO: Un logotipo de Tesla en Tesla Shanghái Gigafactory en Shanghái, China 7 de enero de 2019. REUTERS/Aly Song/Foto de archivo

“El conductor del Tesla no vio al motociclista y chocó con la parte trasera de la motocicleta, lo que arrojó al conductor de la moto”, dijo el Departamento de Seguridad Pública de Utah. El motociclista murió en el lugar, dijeron las autoridades de Utah.

Es muy peligroso para las motocicletas estar cerca de Teslas”, dijo Cummings.

De cientos de accidentes de asistencia al conductor de Tesla, la NHTSA se ha centrado en unos 40 incidentes de Tesla para un análisis más detallado, con la esperanza de obtener una visión más profunda de cómo funciona la tecnología. Entre ellos estaba el accidente de Carolina del Norte que involucró a Mitchell, el estudiante que descendía del autobús escolar.

Posteriormente, Mitchell se despertó en el hospital sin recordar lo sucedido. Todavía no comprende la gravedad de esto, dijo su tía. Sus problemas de memoria lo están obstaculizando mientras trata de ponerse al día en la escuela. El medio local WRAL informó que el impacto del choque destrozó el parabrisas del Tesla.

El conductor de Tesla, Howard G. Yee, fue acusado de múltiples delitos en el accidente, incluida la conducción imprudente, rebasar un autobús escolar detenido y golpear a una persona, un delito grave de clase I, según el sargento de la Patrulla de Carreteras del Estado de Carolina del Norte. Marco Bethea.

Las autoridades dijeron que Yee había fijado peso en el volante para engañar al piloto automático para que registrara la presencia de las manos del conductor: el piloto automático desactiva las funciones si no se aplica presión en la dirección después de un período prolongado de tiempo.

NHTSA todavía está investigando el accidente y una portavoz de la agencia se negó a ofrecer más detalles, citando la investigación en curso. Tesla le pidió a la agencia que excluya el resumen del incidente de la compañía de la vista del público, diciendo que “puede contener información comercial confidencial”.

Lynch dijo que su familia ha tenido a Yee en sus pensamientos y considera sus acciones como un error provocado por la confianza excesiva en la tecnología, lo que los expertos llaman “complacencia de automatización”.

“No queremos que su vida se arruine por este estúpido accidente”, dijo.

Pero cuando se le preguntó acerca de Musk, Lynch tuvo palabras más duras.

“Creo que necesitan prohibir la conducción automatizada”, dijo. “Creo que debería prohibirse”.

(c) The Washington Post

Seguir Leyendo: