Un Tesla con conducción autónoma atropella a un ‘niño’ en ocho pruebas consecutivas y el vídeo se hace viral
la llegada de coches totalmente autónomos Todavía es un trabajo en progreso, y parece que todavía estamos a algunos años de que la tecnología y la legislación nos permitan ver autos sin conductor en las calles con regularidad. Sin embargo, las funciones de asistencia al conductor son mucho más comunes, algunas incluso prometen funciones bastante avanzadas… y luego no cumplen sus promesas.
Uno de los sistemas que normalmente está en el ojo de la tormenta es el Tesla de conducción totalmente autónoma (FSD). Los coches equipados con él han estado implicados en accidentes en múltiples ocasiones. En algunos esto se debe a que los conductores sobreestiman sus capacidades y no prestan suficiente atención, en otros, a que los vehículos no cumplieron con las características técnicas prometidas.
Uno de los aspectos que más preocupa a The Dawn Project, asociación centrada en la seguridad vial, es la forma en que los Tesla protegen a los peatones y, en particular, a los niños.
Por ello realizó un estudio para verificar la reacción de un Tesla Model Y equipado con FSD de última generación. maniquíes infantiles saliendo improvisadamente entre los coches. Los resultados no fueron tan buenos y las impactantes imágenes hicieron que el clip se volviera viral:
El escenario que crearon es uno que puede ocurrir muy comúnmente en los Estados Unidos. A autobús escolar hace una parada para dejar bajar a los estudiantes. En el proceso, active las luces de emergencia y extiende una señal de «PARADA». para que el resto de conductores se detengan y así evitar accidentes.
El problema es que el Model Y no reconoce correctamente estos avisos y no se detiene, lo que acaba golpeando a un niño. Demostrando que esto no es algo casual, sino la tecnología de la empresa de Elon Musk. No está tan cerca de ser autónomo. Como se anunció, la misma prueba se realizó ocho veces. En todos ellos el sistema no reaccionó a tiempo.
De hecho, una de las pruebas fue más llamativa que las demás. Y es que, tras golpear el maniquí y dejarlo sobre el asfalto, justo delante de las ruedas, sin que el conductor pise el acelerador ni haga nada, el Tesla arranca de nuevo el coche y lo supera.
Un escenario real
El Modelo Y fue conduciendo a 20 millas por hora, es decir, unos 32 km/h, que es una velocidad moderada. Cada vez aplicó los frenos y terminó deteniéndose, pero nunca lo suficientemente rápido como para hacerlo antes de que ocurriera el accidente.
Dan O’Dowd, fundador de The Dawn Project, dijo: «Elon Musk conocer este grave fallo de seguridad durante más de dos años. Si el lamentablemente inepto equipo de ingeniería de Tesla no puede solucionar el problema, habría que abandonar el sistema completo de conducción autónoma (FSD). «Si pueden optar por no hacerlo, deberían ser procesados».
Esto demuestra que debemos tener cuidado al anunciar este tipo de tecnología, desde los nombres. puede llevar a confusión a medida que los conductores se vuelven demasiado confiados.
«El desprecio de Tesla por la seguridad pública es sorprendente. ¿Qué otra empresa de Fortune 500 enviaría un producto tan defectuoso a consumidores preocupados por la seguridad? La NHTSA debería Prohibir la conducción totalmente autónoma en la vía pública. inmediatamente, hasta que Tesla pueda demostrar de manera concluyente que no atropellará a autobuses escolares detenidos ni atropellará a niños”, concluyó.
Puedes consultar la fuente de este artículo aquí