Tesla es una de las marcas más relevantes en el sector automotriz, prueba de ello es que en 2022 vendió alrededor de 1,4 millones de vehículos en todo el mundo, 18 veces más que en 2016 y fue la segunda cifra más alta dentro de los fabricantes de coches eléctricos en dicho año, según datos de Statista.
Sin embargo, el 2023 empezó en medio de varios contratiempos para la marca de Elon Musk ya que un ex técnico expuso ciertas preocupaciones relacionadas con la conducción asistida al Departamento de Justicia de Estados Unidos.
Lukasz Krupski habló recientemente con la BBC para aclarar que lo motivó a llevar sus temores al ámbito jurídico.
Frenado fantasma y airbag
La función de conducción asistida de Tesla se llama Autopilot. Este sistema utiliza una combinación de cámaras, radares y sensores de ultrasonido para proporcionar asistencia al conductor en ciertas tareas de conducción.
Autopilot permite al vehículo acelerar, frenar y girar dentro de su carril con cierta autonomía, y está diseñado para asistir al conductor en la carretera, aunque se requiere que el conductor permanezca atento y con las manos en el volante en todo momento
Krupski sostuvo que, tras analizar una serie de datos de la compañía, descubrió indicios que apuntaban a una falta de cumplimiento de los estándares necesarios para la operación segura de automóviles con un determinado grado de tecnología autónoma o de asistencia al conductor.
De acuerdo con el exempleado, en los documentos se leía que hacia finales de 2022, los clientes estadounidenses que utilizaban el piloto automático, en promedio tuvieron un accidente porque espontáneamente se desplegó el airbag cada 5 millones de millas recorridas aproximadamente.
Además encontró que el promedio general entre los conductores estadounidenses fue de un accidente cada 600.000 millas.
Agregó que algunos colegas de Tesla le habían hablado de un fenómeno conocido como frenado fantasma que es cuando los vehículos frenan aleatoriamente en respuesta a obstáculos que el mismo sistema inventa.
“Nos afecta a todos porque esencialmente somos experimentos en las carreteras. Aunque no tengas un Tesla, tus hijos van por la acera”, puntualizó Krupski.
Además, otras entidades reguladoras de Estados Unidos, como la Administración Nacional de Seguridad del Tráfico en Carreteras, han realizado investigaciones sobre el sistema de piloto automático de Tesla similares a las adelantadas por el Departamento de Justicia de ese mismo país.
La posición de Tesla
La compañía no se ha pronunciado al respecto, sin embargo, Elon Musk ha defendido la inteligencia artificial (IA) de Tesla en numerosas ocasiones, especialmente cuando se han cuestionado la seguridad y eficiencia de los sistemas de conducción asistida de Tesla, como el Autopilot y Full Self-Driving (FSD).
Musk a menudo destaca las altas puntuaciones que los vehículos Tesla han recibido en pruebas de seguridad, atribuyendo parte de ese éxito a las características avanzadas de seguridad y asistencia al conductor proporcionadas por la IA.
Igualmente, a través de la página oficial de la compañía se han difundido los resultados que obtiene sus modelos en dichas pruebas.
A finales del 2022, publicaron una entrada en su blog que sostenía:
“Actualmente, el Model Y es nuestro último vehículo en obtener una calificación de seguridad de 5 estrellas del Programa Europeo de Evaluación de Automóviles Nuevos (Euro NCAP).”
En el mismo texto explicaron que esa calificación se basó en una evaluación de la capacidad de protección del Model Y para los adultos, niños y usuarios vulnerables de la carretera, como ciclistas y peatones, así como en sus características de asistencia de seguridad.
A través de su cuenta personal de Twitter, Elon Musk ha respondido a críticas y preguntas sobre la IA de los vehículos Tesla, defendiendo su tecnología y visión sobre el futuro de la conducción autónoma.