
Les Audacieuses Voitures Sans Conducteur de Tesla Peuvent-elles Être Fiables ? Une Nouvelle Vidéo de Test de Collision Choc Fait Stupéfier Internet
Un test viral montre une Tesla Model Y écrasant une poupée représentant un enfant, ravivant le débat sur la sécurité de la conduite autonome alors que Tesla envisage un futur de robotaxis.
- 40 000+ Teslas équipées d’Autopilot sur les routes américaines
- 13.2.9 : Dernière version du logiciel Full Self-Driving (FSD) testée dans la vidéo virale
- 1 million+ de miles revendiqués par Tesla pour des tests de préparation des robotaxis
Tesla se retrouve une fois de plus au cœur de la controverse. Cette fois, une vidéo glaçante a enflammé les réseaux sociaux : une Tesla Model Y, utilisant le dernier logiciel ‘Full Self-Driving’ (FSD) de Tesla, échoue à un test de sécurité de base en écrasant une poupée de la taille d’un enfant au lieu de s’arrêter. Bien qu’aucun mal réel n’ait été causé, la collision mise en scène par le défenseur de la sécurité The Dawn Project a ravivé de vives discussions sur les limites — et les dangers — de la technologie de conduite autonome en 2025.
La démonstration a eu lieu dans les rues publiques d’Austin, provoquant des ondes de choc parmi les propriétaires de Tesla et les observateurs de l’industrie. Alors que le géant électrique essaie de lancer des robotaxis d’un océan à l’autre, les experts se posent la question : l’avenir des voitures sans conducteur arrive-t-il trop rapidement pour que la sécurité publique puisse suivre ?
La NHTSA et Tesla continuent d’être sous un examen impitoyable alors que ce débat devient de plus en plus bruyant.
Q : Que S’est-il Réellement Passé Pendant la Démonstration Virale de Tesla ?
Dans la vidéo partagée par The Dawn Project, une Tesla Model Y blanche équipée du logiciel FSD (Supervisé) 13.2.9 s’approche d’un bus scolaire arrêté avec ses feux clignotants. Alors qu’une poupée représentant un enfant traverse la rue, la voiture ne ralentit même pas, fonçant sans hésitation. Les images de la dashcam montrent l’IA « identifiant » un piéton — mais ne s’arrêtant pas.
Comme le révèlent les enquêtes précédentes de la NHTSA, ce n’est pas le premier incident de sécurité lié à Autopilot ou FSD pour Tesla. En fait, les conducteurs humains doivent légalement s’arrêter pour les feux clignotants des autobus scolaires car les piétons — souvent des enfants — sont censés traverser. La Model Y, dans ce cas, n’a simplement pas respecté cette règle.
Q : Qui Est Derrière The Dawn Project — et Quelle Est Leur Mission ?
The Dawn Project est dirigé par l’entrepreneur Dan O’Dowd, un utilisateur de Tesla de longue date et critique virulent. O’Dowd a fait la une des journaux avec des campagnes de haut profil, y compris une publicité dramatique pendant le Super Bowl critiquant les échecs logiciels de Tesla.
Son message est clair : la quête de Tesla pour un avenir sans conducteur met des vies réelles en danger. Malgré des années d’avertissements, O’Dowd affirme que les priorités de Tesla restent les profits et les ambitions de robotaxi au détriment des corrections de sécurité fondamentales.
Comment la Technologie de Tesla Se Compare-t-elle à Celle des Autres Pionniers des Robotaxis ?
Tesla continue de faire abstraction des capteurs LiDAR — privilégiés par des concurrents comme Waymo — affirmant que son approche basée sur les caméras et l’IA est l’avenir. Pourtant, des entreprises comme Waymo et Cruise (une division de GM) exploitent déjà des taxis sans conducteur dans des villes comme Austin et San Francisco, avec beaucoup moins d’incidents signalés.
O’Dowd et d’autres experts font valoir que négliger une technologie éprouvée au profit des coûts et de la rapidité expose tous les usagers de la route. Les conducteurs humains, du moins, sont soumis à des lois et des responsabilités claires concernant les zones scolaires — quelque chose que le logiciel doit égaler ou dépasser.
À Quel Point les Robotaxis de Tesla Sont-ils Sûrs — et Devriez-vous Leur Faire Confiance ?
Le PDG de Tesla, Elon Musk, insiste sur le fait que le logiciel passe des tests rigoureux et affirme que Tesla lancera bientôt des véhicules entièrement sans conducteur. Les critiques soulignent que le calendrier glisse régulièrement, et des vidéos comme celle-ci soulignent combien le système reste perfectible.
Les autorités, y compris la NHTSA, continuent d’enquêter. Mais des images choquantes et une préoccupation publique croissante pourraient forcer les régulateurs à sévir avant que d’autres voitures autonomes ne circulent dans les rues américaines.
Que Peuvent Faire les Conducteurs — et les Parents — Maintenant ?
– Restez informé sur les mises à jour et les limitations du logiciel de votre voiture.
– Ne comptez jamais uniquement sur les fonctionnalités de conduite autonome ; gardez les mains sur le volant et les yeux sur la route en tout temps.
– Signalez tout comportement inhabituel du véhicule aux fabricants et aux organismes de sécurité.
Ne devenez pas un titre — privilégiez la sécurité plutôt que le battage médiatique. Ajoutez cette histoire à vos favoris pour des mises à jour, ou visitez des ressources fiables pour les dernières informations sur les véhicules autonomes : Consumer Reports, NHTSA et Tesla.
Liste de Vérification : Comment Rester Sûr avec des Véhicules Semi-Autonomes
- ✔ Supervisez toujours — ne croyez pas aux déclarations de « conduite entièrement autonome »
- ✔ Évitez d’utiliser l’Autopilot ou le FSD dans les zones scolaires ou près des passages piétons
- ✔ Renseignez-vous sur les problèmes connus pour votre voiture et votre version logicielle
- ✔ Exigez transparence et action de la part des fabricants concernant la sécurité
Restez vigilant — car lorsque votre voiture est aux commandes, votre vie peut l’être aussi.