Los Tesla llenaron las estaciones de recarga del recién inaugurado Tesla Diner en la zona de Hollywood, en Los Ángeles, el 22 de julio de 2025. (Jill McLaughlin/The Epoch Times)

Los Tesla llenaron las estaciones de recarga del recién inaugurado Tesla Diner en la zona de Hollywood, en Los Ángeles, el 22 de julio de 2025. (Jill McLaughlin/The Epoch Times)

Software de conducción autónoma total de Tesla bajo investigación tras accidentes

La investigación examinará si el sistema de Tesla advirtió a los conductores con suficiente antelación para que tomaran el control en caso de imprevistos

EMPRESAS

Por

10 de octubre de 2025, 5:52 p. m.
| Actualizado el10 de octubre de 2025, 5:52 p. m.

La Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA) anunció el 9 de octubre que abrió una investigación sobre docenas de accidentes y violaciones de seguridad que involucran a vehículos Tesla que operan con el sistema de conducción automatizada del vehículo.

La investigación fue abierta el 7 de octubre por la Oficina de Investigación de Defectos (ODI) de la NHTSA y se centra en más de 2.88 millones de vehículos Tesla. Según la documentación presentada por la NHTSA, se produjeron un total de 58 incidentes relacionados con el uso del software Full Self-Driving (FSD) de Tesla que provocaron accidentes, incendios o lesiones a los conductores.

El sistema FSD de Tesla es parcialmente automatizado y requiere que los conductores mantengan la supervisión y el control de sus vehículos, según la denuncia de la ODI. Incluso cuando el software FSD está activado, los conductores son plenamente responsables de las acciones de sus vehículos y se espera que cumplan con todas las normas de tráfico. Sin embargo, la ODI señala que se denunciaron casos en los que el FSD anuló la supervisión del conductor y provocó un funcionamiento inesperado del vehículo.

El primer escenario más común incluye 18 quejas y un informe de los medios de comunicación sobre vehículos Tesla que se adentraron en intersecciones a pesar de estar detenidos en semáforos en rojo. Los vehículos no permanecieron completamente detenidos durante la duración de la señal, no se detuvieron por completo o mostraron el color incorrecto de la señal de tráfico en la pantalla multimedia del vehículo.

Seis de estos casos provocaron accidentes, según la ODI, y cuatro de ellos causaron lesiones. La Oficina de Investigación de Defectos, junto con la Policía Estatal de Maryland y la Autoridad de Transporte de Maryland, determinó que se produjeron múltiples casos de semáforos en rojo en la misma intersección en Joppa, en el norte de Maryland. Tesla ya ha tomado medidas para corregir los problemas del FSD en la intersección, según señaló la NHTSA.

El segundo caso se refiere a 18 quejas y otros informes sobre el sistema de conducción totalmente autónoma, que provocaba que los vehículos realizaran cambios de carril inesperados hacia el tráfico que venía en sentido contrario, según la ODI. En estos casos, los vehículos con el sistema FSD activado cruzaban las líneas amarillas dobles que marcan los carriles, se incorporaban al carril contrario después de un giro o intentaban circular en sentido contrario en determinadas carreteras. Estas maniobras se producían a menudo sin dar a los conductores tiempo suficiente para reaccionar e intervenir, según la ODI.

El objetivo de la revisión de la ODI es determinar si el sistema FSD de Tesla proporcionó a los conductores tiempo suficiente para tomar el control de sus vehículos durante las acciones inesperadas. Las evaluaciones incluyen el tiempo que tarda un conductor en responder cuando su vehículo realiza maniobras inesperadas, junto con la capacidad del sistema de conducción autónoma para detectar señales de tráfico, marcas de carril y señales de sentido contrario, y el tiempo que tarda en transmitir esa información a los conductores.

The Epoch Times se puso en contacto con Tesla para obtener comentarios, pero no recibió respuesta hasta el momento de la publicación.

En una carta abierta dirigida al administrador de la NHTSA, Jonathan Morrison, a finales de septiembre, el senador Edward J. Markey (D-Mass.) y el senador Richard Blumenthal (D-Conn.) pidieron a la administración que iniciara una investigación sobre los fallos operativos denunciados en el FSD de Tesla en los cruces ferroviarios y otras señales de tráfico.

"Aunque errores como no ver una señal de tráfico o un cambio de carril ilegal son peligrosos, un error de cálculo en un cruce ferroviario puede provocar colisiones catastróficas con múltiples víctimas mortales que afecten a los ocupantes de los vehículos, los pasajeros del tren y los trabajadores ferroviarios", escribieron los senadores.

"Las investigaciones previas de la NHTSA sobre el FSD muestran que los fallos del sistema no son aislados", continuaron. "Se ha demostrado que el sistema de Tesla malinterpreta la infraestructura básica del tráfico, especialmente en condiciones de baja visibilidad o de carreteras complejas".

Aunque la investigación de la NHTSA se centrará en las dos áreas principales de infracciones de seguridad vial, también puede abarcar e incluir casos de infracciones de seguridad del FSD en cruces ferroviarios, según declaró la administración.

En octubre de 2024, la Oficina de Investigación de Defectos de la NHTSA abrió una investigación sobre la eficacia del FSD en condiciones de visibilidad reducida, como niebla, deslumbramiento o polvo excesivo.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí


Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
Economía
Inicio
Epoch tv
Salud
Shen Yun