La Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos (NHTSA, por sus siglas en inglés) ha iniciado una investigación detallada sobre Tesla tras recibir numerosos reportes de vehículos de la marca que cruzaron semáforos en rojo y circularon en sentido contrario mientras usaban el sistema de automatización parcial conocido como “conducción autónoma total” (FSD).
La indagación surge luego de que se registraran al menos 58 incidentes relacionados con el software de asistencia al conductor, lo que pone el foco sobre la seguridad de los sistemas de automatización avanzada de Tesla y su capacidad para respetar las normas viales.
Investigación sobre conducción autónoma de Tesla
La investigación oficial sobre FSD de Tesla se centra en incidentes donde los autos equipados con el software de conducción autónoma total –función central en la apuesta tecnológica de la compañía– ejecutaron maniobras peligrosas sin respetar señales de tránsito. Según el informe de la NHTSA publicado en su web institucional, el alcance de la evaluación preliminar abarca unos 2,9 millones de vehículos Tesla en Estados Unidos.
Entre los casos estudiados hay situaciones donde los vehículos, con el FSD activado, cruzaron semáforos en rojo y, en algunos casos, circularon por carriles equivocados de manera contraria a la circulación permitida. La NHTSA identificó específicamente seis informes en los que autos Tesla “se acercaron a una intersección con una señal de tráfico roja, continuaron viajando hacia la intersección contra la luz roja y posteriormente estuvieron involucrados en un choque” con otros vehículos.
La agencia señaló que estos incidentes, aunque no han dejado víctimas mortales, sí han resultado en accidentes y lesionados. Varias de estas situaciones ocurrieron en la misma intersección de Maryland, lo que llevó a Tesla a implementar soluciones específicas para ese cruce luego de que los hechos salieran a la luz.
La investigación busca evaluar el ”alcance, la frecuencia y las posibles consecuencias de seguridad” derivadas del comportamiento del sistema FSD, según declaró la propia NHTSA. Mientras tanto, Tesla no respondió inmediatamente a las solicitudes de comentarios realizadas por Bloomberg.
Contexto y antecedentes: desafío regulatorio para Tesla
El escrutinio hacia la seguridad de los sistemas de asistencia al conductor de Tesla se ha intensificado en los últimos años, con la NHTSA abriendo varias investigaciones adicionales sobre aspectos técnicos y operativos de la marca. Las pesquisas recientes incluyen tanto el estudio sobre puertas, el uso del piloto automático y la transparencia en la notificación de accidentes, como la investigación previa sobre la capacidad del FSD para detectar y responder ante condiciones de niebla y visibilidad reducida.
El sistema FSD es el pilar del proyecto de Elon Musk para desarrollar vehículos autónomos de uso cotidiano. Aunque el propio Musk ha señalado que los conductores deben mantener la supervisión constante al usar las funciones de automatización, ha pronosticado que en ciertos estados estadounidenses, los usuarios pronto podrán dejar de prestar atención durante el manejo con el FSD activado.
Este contexto regulatorio compone un desafío importante para Tesla, que debe equilibrar la innovación acelerada de sus productos con el cumplimiento estricto de las normas viales y la protección de la seguridad de sus clientes y del público general.
Reacciones y medidas tras los incidentes con el sistema FSD de Tesla
Los incidentes que motivaron la investigación de la NHTSA sobre conducción autónoma demuestran la complejidad de validar sistemas automotrices inteligentes en circulación real. Si bien en los hechos investigados hasta el momento no se han registrado víctimas fatales, la aparición de accidentes, lesionados y repetidas infracciones en intersecciones específicas evidencian la importancia de un monitoreo y evaluación continua sobre las nuevas tecnologías vehiculares.
La NHTSA ha detallado públicamente los incidentes y mantiene la línea de trabajo para determinar el nivel de riesgo asociado con el comportamiento del FSD. Tesla, por su parte, realizó intervenciones técnicas particulares en los lugares donde se repitieron los fallos, como en la mencionada intersección de Maryland.
La discusión técnica, legal y ética en torno al avance de la conducción autónoma y los sistemas de asistencia automatizados permanece abierta, y se estima que los resultados de la evaluación de la NHTSA tendrán impacto tanto en la regulación futura como en el desarrollo de innovaciones responsables dentro del sector automotriz.
Últimas Noticias
Elon Musk pierde a otro cofundador de xAI y se compromete a reconstruir la startup de inteligencia artificial
Tras la salida de nueve altos directivos y un reconocido retraso frente a competidores como OpenAI, la empresa de Musk inicia una completa reestructuración
Spotify lanza la función Perfil de Gustos: usa IA para ajustar tus recomendaciones
Por primera vez, los suscriptores pueden revisar y modificar directamente lo que el sistema prioriza en la app

WhatsApp prepararía cambio clave para Meta AI: una pestaña propia
Con la integración de la inteligencia artificial de Meta en una pestaña dedicada, los usuarios podrían gestionar consultas, generar contenido y personalizar el asistente sin complicaciones

Cómo usar el nuevo modo 3D de Google Maps para que nunca te pierdas
Gracias a la representación gráfica avanzada y las instrucciones de voz contextuales, los usuarios pueden distinguir fácilmente estructuras urbanas y tomar decisiones rápidas

Robot humanoide es intervenido por asustar a una mujer de 70 años en la calle
Este incidente viral, en el que la autoridad se vio obligada a intervenir, resalta la necesidad establecer protocolos y campañas educativas sobre estos dispositivos



