La propietaria de un Tesla Model 3: «El Tesla FSD casi me mata hoy»

Otro grave error del Tesla FSD hace que atraviesa las barreras de un cruce ferroviario y pase las vías del tren.

Un Tesla atraviesa las barreras de un cruce ferroviario con el FSD activado y reabre el debate sobre su seguridad

La conducción asistida de Tesla vuelve al centro del debate tras un nuevo incidente viral que ha reavivado las dudas sobre los límites reales del sistema Full Self-Driving (FSD).

Un vídeo grabado por el propio vehículo y publicado en redes sociales muestra cómo un Tesla Model 3 circulando con el sistema activado atraviesa las barreras de un paso a nivel sin detenerse, en un episodio ocurrido en West Covina, en el área metropolitana de Los Ángeles, California.

El suceso, ocurrido el 8 de marzo, se ha difundido rápidamente en plataformas sociales y llega además en un momento especialmente delicado para la compañía de Elon Musk, que se enfrenta a varias investigaciones regulatorias en Estados Unidos relacionadas con la seguridad de sus sistemas de conducción asistida.

La grabación fue publicada por el propietario del vehículo bajo un título que resume el tono del incidente: “Tesla FSD casi me mata hoy”.

En el vídeo, captado por la cámara del coche, se observa cómo el Model 3 se aproxima a un cruce ferroviario a baja velocidad. Según las imágenes, el vehículo circula a unos 23 km/h cuando llega al paso a nivel.

En otra grabación del mismo episodio, filmada con un teléfono móvil apuntando a la pantalla del coche, se aprecia una velocidad cercana a los 37 km/h.

En ambos casos, la secuencia muestra cómo las barreras del cruce ya están bajadas o comenzando a descender cuando el vehículo continúa avanzando sin frenar.

El resultado es un impacto directo contra las barreras del paso ferroviario. El Tesla no se detiene antes del obstáculo y termina llevándose por delante al menos una de las barreras, e incluso dos según algunas versiones del incidente difundidas en redes sociales.

El conductor parece intervenir en el último momento, presionando el freno justo cuando se produce el choque, y posteriormente detiene el vehículo a pocos metros del cruce.

Las imágenes han generado miles de comentarios y han reavivado un debate que lleva años acompañando al sistema de asistencia a la conducción de Tesla.

El punto central de la discusión gira en torno al propio nombre del sistema: Full Self-Driving, que traducido literalmente significa “conducción autónoma total”.

En la práctica, sin embargo, el sistema no es un sistema de conducción autónoma plena. Según la clasificación internacional de la Sociedad de Ingenieros de Automoción (SAE), el FSD se encuadra en el nivel 2 de automatización.

Eso significa que el vehículo puede controlar la dirección, la aceleración y el frenado en determinadas circunstancias, pero requiere en todo momento la supervisión activa del conductor.

El conductor debe estar preparado para intervenir de forma inmediata si el sistema falla o encuentra una situación que no puede interpretar correctamente.

Esta diferencia entre el nombre comercial y la capacidad real del sistema es precisamente uno de los puntos que más críticas recibe por parte de expertos en seguridad vial y legisladores estadounidenses.

Algunos consideran que la denominación puede generar una percepción equivocada en los usuarios sobre el grado de autonomía del vehículo.

El episodio de West Covina no es, además, un caso aislado. En los últimos años han aparecido numerosos informes de incidentes relacionados con el comportamiento de los sistemas de Tesla en pasos ferroviarios.

Investigaciones periodísticas y recopilaciones de conductores han documentado más de 40 episodios similares en redes sociales y plataformas de vídeo

En varios de estos casos, el vehículo no detectó correctamente las barreras o interpretó las vías ferroviarias como si fueran una carretera más.

Esa interpretación errónea puede llevar al sistema a continuar avanzando incluso cuando existe un riesgo evidente de colisión con un tren.

Uno de los episodios más graves ocurrió en junio de 2025 en Pensilvania. En aquel caso, un Tesla Model 3 terminó detenido en las vías ferroviarias mientras circulaba con el sistema de conducción asistida activado.

Los ocupantes lograron abandonar el vehículo antes de que un tren impactara contra él, aunque el choque causó daños importantes en el coche.

Otros conductores han relatado situaciones similares en las que el vehículo entró en el paso ferroviario o no reaccionó ante las barreras.

En algunos casos, los propietarios describieron cómo tuvieron que intervenir manualmente para evitar una situación potencialmente peligrosa.

Estas situaciones han llamado la atención de varios legisladores estadounidenses. Los senadores Ed Markey y Richard Blumenthal solicitaron a la Administración Nacional de Seguridad del Tráfico en Carreteras de Estados Unidos (NHTSA) que investigara el comportamiento del sistema de Tesla en cruces ferroviarios.

En la carta enviada al organismo, ambos senadores advertían de los riesgos potenciales de este tipo de fallos.

Según su argumentación, un error de cálculo en un paso a nivel puede provocar colisiones especialmente graves, con consecuencias no solo para los ocupantes del vehículo, sino también para los pasajeros del tren y los trabajadores ferroviarios.

Los legisladores también plantearon la posibilidad de que el sistema tenga dificultades específicas para interpretar este tipo de infraestructuras.

Algunos reportes sugieren que, en determinadas circunstancias, el software del vehículo puede interpretar las vías como un simple cruce o incluso como una extensión de la carretera.

La presión política coincidió con una investigación más amplia abierta por la NHTSA sobre el sistema Full Self-Driving.

En octubre de 2025 la agencia federal inició una revisión formal tras detectar múltiples incidentes en los que vehículos equipados con este software cometieron infracciones o estuvieron implicados en accidentes.

La investigación analiza inicialmente 58 incidentes relacionados con el sistema. Dentro de ese conjunto se incluyen al menos 14 accidentes y 23 personas que resultaron heridas. Con el avance de la investigación, el número de episodios examinados aumentó hasta alrededor de 80 casos.

El alcance del análisis es considerable. La agencia está revisando el comportamiento del sistema en una flota de aproximadamente 2,88 millones de vehículos Tesla equipados con estas funciones de conducción asistida.

Entre las situaciones que se investigan se encuentran posibles fallos como saltarse semáforos en rojo, invadir carriles contrarios, errores en la interpretación de intersecciones o problemas en pasos ferroviarios.

Como parte del proceso, la NHTSA ha solicitado a Tesla una gran cantidad de información técnica.

La compañía debe entregar datos detallados de cada incidente, incluyendo la versión del software instalada en el vehículo, las advertencias emitidas al conductor y cualquier daño material o personal producido.

Tesla ha solicitado en al menos dos ocasiones una ampliación del plazo para entregar esta documentación.

Según explicó la empresa, el proceso implica revisar más de 8.300 registros internos, muchos de los cuales requieren un análisis manual para reconstruir con precisión lo ocurrido en cada evento.

En paralelo a esta investigación, la agencia estadounidense mantiene otros expedientes abiertos relacionados con sistemas de asistencia de la marca.

Entre ellos figura el análisis de la función Smart Summon, que permite que el vehículo se desplace sin conductor a baja velocidad en aparcamientos para acudir hasta su propietario.

Más de 2,6 millones de vehículos equipan esta función en Estados Unidos, y la agencia examina varios incidentes reportados durante su uso.

La acumulación de investigaciones regulatorias supone un desafío relevante para Tesla, especialmente en un momento en el que la compañía intenta consolidar su estrategia centrada en la conducción autónoma.

El propio Elon Musk ha defendido en numerosas ocasiones que la conducción autónoma será el eje del futuro de la empresa, incluyendo proyectos como los robotaxis que la compañía está probando en algunas ciudades estadounidenses.

Estos vehículos utilizan versiones más avanzadas del software de conducción asistida, aunque comparten la misma filosofía tecnológica basada principalmente en cámaras.

A diferencia de otros desarrolladores de conducción autónoma, Tesla ha optado por prescindir de sensores LiDAR y radar en sus sistemas más recientes, confiando en una red de cámaras y en algoritmos de visión artificial para interpretar el entorno.

Esta estrategia, orientada a reducir costes y simplificar el hardware, ha sido objeto de debate dentro del sector.

Los críticos argumentan que depender exclusivamente de cámaras puede limitar la capacidad del sistema para detectar ciertos objetos o interpretar situaciones complejas.

Los defensores de la estrategia, en cambio, sostienen que el enfoque basado en visión artificial permite escalar el sistema de forma más rápida y económica.

El incidente viral de West Covina llega precisamente en medio de esta discusión tecnológica y regulatoria.

Aunque Tesla insiste en que sus sistemas requieren siempre la supervisión del conductor, cada nuevo vídeo que muestra comportamientos inesperados del software alimenta el debate público sobre la seguridad y la comunicación comercial de estas tecnologías.

Más allá del impacto mediático del vídeo, el caso ilustra un desafío más amplio para toda la industria del automóvil.

La transición desde sistemas de asistencia a la conducción hacia niveles más avanzados de automatización no solo depende del desarrollo tecnológico, sino también de cómo se presentan estas capacidades a los usuarios y de cómo se regula su uso en carretera.

El resultado de la investigación de la NHTSA podría tener consecuencias relevantes para Tesla y para el conjunto del sector.

Dependiendo de sus conclusiones, la agencia podría exigir modificaciones en el funcionamiento del sistema, limitar su uso en determinadas situaciones o imponer nuevas obligaciones de seguridad y transparencia.

En última instancia, el episodio vuelve a poner sobre la mesa una cuestión clave para la evolución de la conducción automatizada: la distancia que todavía existe entre las promesas tecnológicas y la realidad operativa de los sistemas actuales.

Cómo se gestione esa brecha será determinante para el desarrollo del mercado de la conducción autónoma y para la confianza de los usuarios en una tecnología que, aunque avanza con rapidez, aún está lejos de ser completamente autónoma en la práctica.