
¿Pueden Confiarse en los Audaces Coches Autónomos de Tesla? Un Impactante Video de Prueba de Choque Deja Atónita a la Internet
Un video de prueba viral muestra a un Tesla Model Y atropellando a un muñeco infantil, reavivando el debate sobre la seguridad de la conducción autónoma mientras Tesla apunta hacia un futuro de robotaxis.
- 40,000+ Teslas equipados con Autopilot en las carreteras de EE. UU.
- 13.2.9: Última versión del software de Conducción Totalmente Autónoma (FSD) probada en el video viral
- 1 millón+ de millas reclamadas por Tesla para pruebas de preparación de robotaxis
Tesla se encuentra nuevamente en el centro de la controversia. Esta vez, un escalofriante video incendió las redes sociales: un Tesla Model Y, que ejecuta el último software ‘Conducción Totalmente Autónoma’ (FSD) de Tesla, falla en una prueba de seguridad básica al atropellar a un muñeco del tamaño de un niño en lugar de detenerse. Aunque no se causó daño real, el choque escenificado por el defensor de la seguridad, The Dawn Project, ha reavivado feroces debates sobre los límites—y peligros—de la tecnología de conducción autónoma en 2025.
La demostración tuvo lugar en las calles públicas de Austin, enviando ondas de choque entre los propietarios de Tesla y los observadores de la industria. A medida que el gigante eléctrico se esfuerza por lanzar robotaxis de costa a costa, los expertos se preguntan: ¿Está llegando el futuro de los coches autónomos demasiado rápido para que la seguridad pública pueda mantenerse al día?
La NHTSA y Tesla permanecen bajo un escrutinio implacable a medida que este debate se intensifica.
Q: ¿Qué ocurrió realmente durante la demostración viral de Tesla?
En el video compartido por The Dawn Project, un Tesla Model Y blanco equipado con el software FSD (Supervisado) 13.2.9 se acerca a un autobús escolar detenido con sus luces parpadeando. A medida que un muñeco infantil cruza la calle, el coche ni siquiera reduce la velocidad, embistiéndolo sin dudar. Las imágenes de la cámara de tablero muestran que la IA «identifica» a un peatón—pero no se detiene.
Como revelan investigaciones anteriores de la NHTSA, este no es el primer incidente de seguridad de Tesla relacionado con Autopilot o FSD. De hecho, los conductores humanos deben detenerse legalmente ante las luces parpadeantes de los autobuses escolares porque se espera que crucen peatones—frecuentemente niños. El Model Y, en este caso, simplemente no cumplió.
Q: ¿Quién está detrás de The Dawn Project—y cuál es su misión?
The Dawn Project está dirigido por el empresario Dan O’Dowd, un usuario de Tesla desde hace mucho tiempo y un crítico abierto. O’Dowd ha hecho titulares con campañas de alto perfil, incluido un dramático anuncio del Super Bowl denunciando las fallas del software de Tesla.
Su mensaje es claro: la búsqueda de Tesla de un futuro sin conductor está poniendo en riesgo vidas reales. A pesar de años de advertencias, O’Dowd dice que las prioridades de Tesla siguen siendo las ganancias y las ambiciones de robotaxi por encima de las fundamentales correcciones de seguridad.
¿Cómo se compara la tecnología de Tesla con la de otros pioneros de robotaxis?
Tesla continúa rechazando los sensores LiDAR—favorecidos por competidores como Waymo—asegurando que su enfoque de cámaras e IA es el futuro. Sin embargo, empresas como Waymo y Cruise (una división de GM) ya operan taxis autónomos en ciudades como Austin y San Francisco, con muchos menos incidentes reportados.
O’Dowd y otros expertos argumentan que descuidar la tecnología probada por razones de costo y velocidad deja a todos en la carretera expuestos. Al menos, los conductores humanos están sujetos a leyes y responsabilidades claras en torno a las zonas escolares—algo que el software debe igualar o superar.
¿Qué tan seguros son los robotaxis de Tesla—y deberías confiar en ellos?
El CEO de Tesla, Elon Musk, sostiene que el software pasa pruebas rigurosas y afirma que Tesla pronto lanzará vehículos totalmente autónomos. Los críticos señalan que el cronograma rutinariamente se retrasa, y videos como este subrayan lo lejos que está el sistema de ser seguro.
Las autoridades, incluida la NHTSA, continúan investigando. Pero las impactantes imágenes y la creciente preocupación pública podrían obligar a los reguladores a tomar medidas antes de que más coches autónomos circulen por las calles estadounidenses.
¿Qué pueden hacer ahora los conductores—y los padres?
– Mantente informado sobre las actualizaciones de software y las limitaciones de tu coche.
– Nunca confíes exclusivamente en las características de conducción autónoma; mantén las manos en el volante y los ojos en la carretera en todo momento.
– Reporta comportamientos inusuales del vehículo a los fabricantes y a las juntas de seguridad.
No te conviertas en un titular—prioriza la seguridad sobre la exageración. Guarda esta historia para actualizaciones, o visita recursos confiables para lo último sobre vehículos autónomos: Consumer Reports, NHTSA y Tesla.
Lista de verificación: Cómo mantenerte seguro con vehículos semi-autónomos
- ✔ Siempre supervisa—no confíes en las afirmaciones de «conducción totalmente autónoma»
- ✔ Evita usar Autopilot o FSD en zonas escolares o cerca de pasos de peatones
- ✔ Infórmate sobre los problemas conocidos de tu coche y versión de software
- ✔ Exige transparencia y acciones de los fabricantes sobre la seguridad
Mantente alerta—porque cuando tu coche está en control, tu vida también puede estarlo.