Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

¿Los autos autónomos son mortales? Un accidente con Tesla reaviva este miedo

MIT SMR México 01 Ago 2024
¿Los autos autónomos son mortales? Un accidente con Tesla reaviva este miedo ¿Los coches que no necesitan un conductor humano pueden ser más peligrosos de lo que crees. (Imagen generada por Inteligencia Artificial/Zaleman/Adobe Stock)

¿Algunas vez te has preguntado si los autos autónomos son mortales? Los vehículos de Tesla han sido ligados al menos a tres muertes por atropellamiento. Descubre algunos casos similares.


Un automóvil Tesla Model S estaba en modo de conducción autónoma total cuando atropelló y mató a un motociclista de 28 años en el área de Seattle en abril. Esto, significa que el menos, en tres casos, los vehículos de esta compañía han estado relacionados con la muerte de un peatón.

El conductor de 56 años fue arrestado bajo sospecha de homicidio vehicular. El humano, reconoció que estaba mirando su teléfono celular mientras usaba la función de asistente de conductor.

Al respecto, en su página oficial, Tesla explica que, a pesar de contar con conducción autónoma, todos los autos deben de ser vigilados por sus conductores humanos.

“Recuerde siempre que la conducción autónoma total no hace que el Model Y sea autónomo y requiere un conductor totalmente atento que esté listo para actuar de inmediato en todo momento”.

La intervención del conductor puede ser necesaria en determinadas situaciones. Por ejemplo, en carreteras estrechas con vehículos en sentido contrario, en zonas de construcción o al pasar por intersecciones complejas.

trabajar en tesla es una pesadilla esto opinan sus excolaboradores
(kovop58/Adobe Stock)

Tesla anuncia la llegada de su Robotaxi, esto es lo que se sabe al respecto

¿Los autos autónomos son mortales?

A pesar de los avances significativos, la tecnología de los autos autónomos no está exenta de fallos. Los sistemas que permiten la conducción autónoma, como cámaras y radares, dependen de software complejo y de los humanos para interpretar datos y tomar decisiones en tiempo real.

Sin embargo, errores en la programación y la falta de supervisión pueden hacer que se susciten accidentes que pueden ser fatales.

1. Accidente de Uber en Tempe, Arizona (2018)

El 18 de marzo de 2018, un vehículo autónomo de Uber atropelló fatalmente a Elaine Herzberg, una peatona que cruzaba la calle en Tempe, Arizona. Este incidente fue el primer caso conocido de una muerte de un peatón causada por un vehículo autónomo.

Las investigaciones revelaron que el software del vehículo no detectó a Herzberg como un peligro inminente y no activó los frenos de emergencia a tiempo. Este trágico accidente subrayó la necesidad de mejorar los sistemas de detección y respuesta de los autos autónomos.

2. Colisión de Tesla en Mountain View, California (2018)

El 23 de marzo de 2018, un Tesla Model X en modo Autopilot chocó contra una barrera de concreto en Mountain View, California. Como resultado, murió su conductor, Walter Huang.

La Junta Nacional de Seguridad en el Transporte (NTSB) de Estados Unidos determinó que el sistema de piloto autónomo estaba activado, pero el conductor no respondió a las advertencias del sistema.

3. Accidente de Tesla en Delray Beach, Florida (2019)

El 1 de marzo de 2019, un Tesla Model 3 en modo autopiloto se estrelló contra un camión que cruzaba su camino en Delray Beach, Florida, causando la muerte del conductor, Jeremy Banner.

Las investigaciones mostraron que el sistema no detectó el camión y no frenó ni evitó la colisión. Este incidente resaltó la importancia de mejorar la capacidad de detección de objetos en movimiento de los sistemas autónomos.

Cybertruck de Tesla: ¿Cuánto debes de pagar para obtener el automóvil del futuro?

Las ciudades han comenzado a prohibir los vehículos autónomos

Debido a este tipo de accidentes, algunas legislaciones han sido modificadas con el objetivo de prohibir el uso de vehículos autónomos.

Por ejemplo, en abril de 2024, entraron en vigor diversos cambios a la Ley de Vehículos Motorizados de Columbia Británica, que prohíben el uso de autos autónomos totalmente automatizados.

La nueva legislación restringe la conducción de vehículos automatizados de nivel 3 o superior, según lo define la Sociedad de Ingenieros Automotrices (SAE). También prohíbe el uso de características que hagan que un vehículo funcione como un vehículo automatizado de nivel 3 o superior.

Según la clasificación de la sociedad, que va del nivel 0 al nivel 5, un automovilista no conduce un automóvil con automatización de nivel 3 o superior. Sin importar que un humano se encuentre en el asiento del piloto.

Según la SAE, el nivel 0 no tiene automatización, mientras que los niveles 1 y 2 tienen tecnología asistida por el conductor. Los niveles 0 a 2 requieren que el conductor esté concentrado en la carretera y listo para reaccionar, si es necesario.

Síguenos en Google News
Te recomendamos
Foto perfil de MIT SMR México
MIT SMR México La guía en español para los tomadores de decisiones Ofrecemos a nuestros lectores contenido de alto valor con rigor y veracidad sobre innovación y tendencias del mundo empresarial ayudándolos en la toma de decisiones en su vida cotidiana.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo IA ¿Un riesgo para el planeta? ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!
Regístrate Registro foro mit AQUÍ