La Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos (NHTSA, por sus siglas en inglés) ha iniciado una investigación detallada sobre Tesla tras recibir numerosos reportes de vehículos de la marca que cruzaron semáforos en rojo y circularon en sentido contrario mientras usaban el sistema de automatización parcial conocido como “conducción autónoma total” (FSD).
La indagación surge luego de que se registraran al menos 58 incidentes relacionados con el software de asistencia al conductor, lo que pone el foco sobre la seguridad de los sistemas de automatización avanzada de Tesla y su capacidad para respetar las normas viales.
Investigación sobre conducción autónoma de Tesla
La investigación oficial sobre FSD de Tesla se centra en incidentes donde los autos equipados con el software de conducción autónoma total –función central en la apuesta tecnológica de la compañía– ejecutaron maniobras peligrosas sin respetar señales de tránsito. Según el informe de la NHTSA publicado en su web institucional, el alcance de la evaluación preliminar abarca unos 2,9 millones de vehículos Tesla en Estados Unidos.
Entre los casos estudiados hay situaciones donde los vehículos, con el FSD activado, cruzaron semáforos en rojo y, en algunos casos, circularon por carriles equivocados de manera contraria a la circulación permitida. La NHTSA identificó específicamente seis informes en los que autos Tesla “se acercaron a una intersección con una señal de tráfico roja, continuaron viajando hacia la intersección contra la luz roja y posteriormente estuvieron involucrados en un choque” con otros vehículos.
La agencia señaló que estos incidentes, aunque no han dejado víctimas mortales, sí han resultado en accidentes y lesionados. Varias de estas situaciones ocurrieron en la misma intersección de Maryland, lo que llevó a Tesla a implementar soluciones específicas para ese cruce luego de que los hechos salieran a la luz.
La investigación busca evaluar el ”alcance, la frecuencia y las posibles consecuencias de seguridad” derivadas del comportamiento del sistema FSD, según declaró la propia NHTSA. Mientras tanto, Tesla no respondió inmediatamente a las solicitudes de comentarios realizadas por Bloomberg.
Contexto y antecedentes: desafío regulatorio para Tesla
El escrutinio hacia la seguridad de los sistemas de asistencia al conductor de Tesla se ha intensificado en los últimos años, con la NHTSA abriendo varias investigaciones adicionales sobre aspectos técnicos y operativos de la marca. Las pesquisas recientes incluyen tanto el estudio sobre puertas, el uso del piloto automático y la transparencia en la notificación de accidentes, como la investigación previa sobre la capacidad del FSD para detectar y responder ante condiciones de niebla y visibilidad reducida.
El sistema FSD es el pilar del proyecto de Elon Musk para desarrollar vehículos autónomos de uso cotidiano. Aunque el propio Musk ha señalado que los conductores deben mantener la supervisión constante al usar las funciones de automatización, ha pronosticado que en ciertos estados estadounidenses, los usuarios pronto podrán dejar de prestar atención durante el manejo con el FSD activado.
Este contexto regulatorio compone un desafío importante para Tesla, que debe equilibrar la innovación acelerada de sus productos con el cumplimiento estricto de las normas viales y la protección de la seguridad de sus clientes y del público general.
Reacciones y medidas tras los incidentes con el sistema FSD de Tesla
Los incidentes que motivaron la investigación de la NHTSA sobre conducción autónoma demuestran la complejidad de validar sistemas automotrices inteligentes en circulación real. Si bien en los hechos investigados hasta el momento no se han registrado víctimas fatales, la aparición de accidentes, lesionados y repetidas infracciones en intersecciones específicas evidencian la importancia de un monitoreo y evaluación continua sobre las nuevas tecnologías vehiculares.
La NHTSA ha detallado públicamente los incidentes y mantiene la línea de trabajo para determinar el nivel de riesgo asociado con el comportamiento del FSD. Tesla, por su parte, realizó intervenciones técnicas particulares en los lugares donde se repitieron los fallos, como en la mencionada intersección de Maryland.
La discusión técnica, legal y ética en torno al avance de la conducción autónoma y los sistemas de asistencia automatizados permanece abierta, y se estima que los resultados de la evaluación de la NHTSA tendrán impacto tanto en la regulación futura como en el desarrollo de innovaciones responsables dentro del sector automotriz.
Últimas Noticias
Por qué la IA complaciente afecta cómo resolvemos desacuerdos
Un reciente estudio descubrió que recibir halagos de chatbots influye en la forma en que las personas reconocen sus errores tras conflictos sociales

Las mejores películas para ver en Semana Santa si te quedas en casa
Para facilitar la decisión, se recurrió a Gemini, que elaboró una selección de películas pensada para distintos públicos y preferencias

Después del tren británico, así podría usarse la navegación cuántica en América Latina
Con sensores cuánticos a bordo, el centro de control podría conocer la ubicación precisa de cada convoy aunque fallen los sistemas tradicionales o se presenten robos de cables

Ingenieros ya no escriben código: la IA Claude lo hace y ellos solo lo revisan
Dario Amodei, CEO de Anthropic, ha confirmado que en su empresa los ingenieros ya no programan código directamente

¿Tu SSD está casi lleno? Descubre por qué el rendimiento cae al superar el 90 %
Para mitigar los efectos del espacio lleno, los SSD modernos implementan sistemas de recolección de basura (Garbage Collection)




