
Os Carros Sem Motorista Ousados da Tesla Podem Ser Confiáveis? Novo Vídeo Impressionante de Teste de Colisão Deixa a Internet Chocada
Um teste viral mostra um Tesla Model Y atropelando um boneco infantil, reacendendo o debate sobre a segurança da direção autônoma enquanto a Tesla mira um futuro de robotáxis.
- 40.000+ Teslas equipados com Autopilot nas estradas dos EUA
- 13.2.9: Última versão do software Full Self-Driving (FSD) testada no vídeo viral
- 1 milhão+ de milhas reivindicadas pela Tesla para testes de prontidão de robotáxi
A Tesla se encontra novamente no centro de controvérsias. Desta vez, um vídeo perturbador incendiou as redes sociais: um Tesla Model Y, rodando o mais recente software ‘Full Self-Driving’ (FSD) da Tesla, falha em um teste básico de segurança atropelando um boneco do tamanho de uma criança em vez de parar. Embora nenhum dano real tenha ocorrido, o acidente encenado pelo defensor da segurança The Dawn Project reacendeu debates acalorados sobre os limites—e perigos—da tecnologia de direção autônoma em 2025.
A demonstração ocorreu nas ruas públicas de Austin, causando ondas de choque entre os proprietários de Tesla e observadores da indústria. À medida que o gigante elétrico pressiona para lançar robotáxis coast-to-coast, os especialistas questionam: O futuro dos carros sem motorista está chegando rápido demais para que a segurança pública consiga acompanhar?
A NHTSA e a Tesla continuam sob intenso escrutínio à medida que este debate se torna mais alto.
P: O Que Realmente Aconteceu Durante a Demonstração Viral da Tesla?
No vídeo compartilhado pelo The Dawn Project, um Tesla Model Y branco equipado com o software FSD (Supervisionado) 13.2.9 se aproxima de um ônibus escolar parado com as luzes piscando. Quando um boneco infantil atravessa a rua, o carro não reduz a velocidade, atropelando-o sem hesitar. As imagens da câmera do painel mostram a IA “identificando” um pedestre—mas não parando.
Como revelam investigações anteriores da NHTSA, este não é o primeiro incidente de segurança da Tesla ligado ao Autopilot ou ao FSD. De fato, motoristas humanos devem legalmente parar quando as luzes do ônibus escolar estão piscando, porque se espera que pedestres—muitas vezes crianças—atravessem. O Model Y, neste caso, simplesmente não cumpriu.
P: Quem Está Por trás do Dawn Project—e Qual É Sua Missão?
O Dawn Project é liderado pelo empresário Dan O’Dowd, um usuário de longa data da Tesla e crítico contundente. O’Dowd fez manchetes com campanhas de alto perfil, incluindo um dramático comercial no Super Bowl criticando as falhas de software da Tesla.
Sua mensagem é clara: a busca da Tesla por um futuro sem motorista está colocando vidas reais em risco. Apesar de anos de advertências, O’Dowd afirma que as prioridades da Tesla continuam sendo os lucros e as ambições de robotáxis em detrimento de correções fundamentais de segurança.
Como a Tecnologia da Tesla se Compara a Outras Pioneiras de Robotáxi?
A Tesla continua a rejeitar sensores LiDAR—preferidos por concorrentes como Waymo—alegando que sua abordagem de câmera e IA é o futuro. No entanto, empresas como Waymo e Cruise (uma divisão da GM) já operam táxis sem motorista em cidades como Austin e São Francisco, com muito menos incidentes relatados.
O’Dowd e outros especialistas argumentam que negligenciar tecnologia comprovada em nome do custo e da velocidade deixa todos na estrada expostos. Motoristas humanos, pelo menos, são responsabilizados por leis e responsabilidades claras em relação a zonas escolares—algo que o software deve corresponder ou superar.
Quão Seguros São os Robotáxis da Tesla—E Você Deveria Confiar Neles?
O CEO da Tesla, Elon Musk, insiste que o software passa por testes rigorosos e afirma que a Tesla lançará veículos completamente sem motorista em breve. Críticos apontam que o cronograma frequentemente é adiado e vídeos como este destacam o quanto o sistema ainda precisa evoluir.
As autoridades, incluindo a NHTSA, continuam a investigar. Mas imagens chocantes e a crescente preocupação pública podem forçar os reguladores a agir antes que mais carros autônomos circulem pelas ruas americanas.
O Que os Motoristas—e Pais—Podem Fazer Agora?
– Mantenha-se informado sobre as atualizações de software e limitações do seu carro.
– Nunca confie exclusivamente nas funcionalidades de direção autônoma; mantenha as mãos no volante e os olhos na estrada em todos os momentos.
– Reporte comportamentos incomuns do veículo aos fabricantes e órgãos de segurança.
Não se torne uma manchete—priorize a segurança em vez do hype. Salve esta história para atualizações ou visite recursos confiáveis para as últimas notícias sobre veículos autônomos: Consumer Reports, NHTSA e Tesla.
Checklist: Como Permanecer Seguro com Veículos Semi-Autônomos
- ✔ Sempre supervise—não confie em alegações de “direção totalmente autônoma”
- ✔ Evite usar Autopilot ou FSD em zonas escolares ou perto de faixas de pedestres
- ✔ Informe-se sobre problemas conhecidos para seu carro e versão de software
- ✔ Exija transparência e ação dos fabricantes em relação à segurança
Fique atento—porque quando seu carro está no controle, sua vida pode estar também.