Luego de que en el mes de julio se registraran dos accidentes mortales causados por el Autopilot de Tesla a motociclista, se dio a conocer que el gobierno federal está investigando si el sistema Autopilot de la compañía puede reconocer de forma segura a los motociclistas en la noche. Tal parece que California no está muy feliz con la forma en que el fabricante de automóviles ha publicitado sus tecnologías de asistencia al conductor Autopilot y Full Self-Driving.
Hechos:
El primer accidente mortal se produjo en la madrugada del 7 de julio en Riverside (California), cuando un Tesla Model Y que circulaba por la ruta estatal 91 chocó por detrás con una motocicleta, causando la muerte al motociclista.
El segundo accidente mortal ocurrió el 24 de julio, también de noche, esta vez en la I-15 a las afueras de Draper, Utah. En ese caso, un Tesla Model 3 circulaba detrás de una motocicleta y la golpeó, matando a su conductor.
La Patrulla de Carreteras de California todavía está investigando si el Autopilot estaba activo en el primer choque, pero el conductor de Utah admitió que estaba usando el asistente de conducción en el momento de su choque.
Los investigadores de la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) se desplazaron a ambos lugares del accidente; según la NHTSA "sospecha que el sistema de asistencia al conductor parcialmente automatizado de Tesla estaba en uso en cada caso."
La Oficina de Investigación de Defectos de la NHTSA ya está investigando el Autopilot a raíz de al menos 11 choques en los que los vehículos de Tesla, operando con el Autopilot, chocaron con vehículos de emergencia tras no reconocerlos. También se está llevando a cabo una segunda investigación de la NHTSA para determinar si la eliminación del sensor de radar orientado hacia delante en los Tesla más nuevos es la causa de un problema de "frenado fantasma" que ha dado lugar a cientos de quejas ante el regulador.
a falta de un radar orientado hacia delante y la dependencia exclusiva de las cámaras bien puede ser un factor en estos dos accidentes mortales, aunque incluso los sistemas de control de crucero adaptativo menos controvertidos han demostrado tener problemas con las motocicletas si circulan cerca del borde de un carril.
Mientras tanto, el Departamento de Vehículos Motorizados de California presentó un par de quejas ante la Oficina de Audiencias Administrativas del estado. Las quejas dicen que las declaraciones de Tesla que describen el Autopilot y la más controvertida función de autoconducción completa han sido "falsas o engañosas y no se basan en hechos".
Como ejemplo, las quejas citan una declaración en la página web de Autopilot de Tesla que afirma que con la conducción autónoma completa:
“Lo único que tienes que hacer es subirte y decirle a tu auto a dónde ir. Si no dices nada, tu vehículo mirará tu calendario y te llevará allí como destino supuesto. Tu Tesla calculará la ruta óptima, navegando por calles urbanas, intersecciones complejas y autopistas.
Como señala el DMV, ningún Tesla (ni ningún otro carro a la venta hoy en día) puede funcionar de forma autónoma.”
No es la primera vez que el marketing de Tesla es tachado de engañoso. En 2016, el Ministerio de Transporte alemán le dijo a la compañía que dejara de usar el término "Autopilot" en su publicidad y en 2019, la NHTSA le dijo a Tesla que dejara de usar declaraciones engañosas o incorrectas sobre la seguridad de sus autos.
.