Estados Unidos abrió una investigación federal para determinar si el sistema de automatización parcial de Tesla comercializado como Full Self-Driving es defectuoso después de múltiples accidentes, uno de los cuales resultó en una fatalidad.
La Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA, por sus siglas en inglés) dijo el viernes que evaluará si el sistema de Tesla, también conocido como FSD, tiene la capacidad de detectar y responder adecuadamente a la niebla y otras condiciones de visibilidad reducida. La agencia dijo que se han reportado cuatro accidentes en tales escenarios en los que se activó el FSD.
En uno de los choques, un vehículo utilitario deportivo Tesla Model Y atropelló fatalmente a un peatón. Otra colisión que involucró a un sedán Model 3 resultó en una lesión leve, según la NHTSA. Los representantes de Tesla no respondieron a una solicitud de comentarios enviada por correo electrónico.
La investigación podría hacer retroceder los esfuerzos del director ejecutivo Elon Musk por posicionar a Tesla como líder en conducción autónoma. Si bien actualmente se exige a los usuarios de FSD que supervisen constantemente el sistema, Musk afirmó durante un evento de productos la semana pasada que los conductores de Texas y California ya no necesitarán prestarle atención en algún momento del próximo año.
Caen acciones de Tesla tras presentación de prototipos de vehículos autónomos
Las acciones de Tesla cayeron un 0.8 por ciento poco después del inicio de la sesión regular. Las acciones se desplomaron después de que Musk presentara prototipos de vehículos autónomos la semana pasada, sin dar detalles sobre cómo la compañía hará realidad sus ambiciones de conducción autónoma.
Si bien la investigación de defectos involucra a aproximadamente 2.4 millones de vehículos Tesla, solo una fracción de los clientes de la compañía paga por el FSD.
La investigación se suma a una consulta de revisión que la NHTSA abrió en abril para determinar si Tesla había hecho lo suficiente para evitar que los conductores hicieran un mal uso de otro conjunto de funciones de asistencia que la empresa comercializa como Autopilot. La agencia está investigando si una actualización de software que Tesla implementó a fines del año pasado garantiza que los conductores permanezcan atentos mientras usan el sistema.
La NHTSA ha dicho que existe una “brecha de seguridad crítica” entre lo que los conductores creen que puede hacer el Autopilot y sus capacidades reales. Esa brecha ha llevado a un mal uso previsible del sistema y a accidentes evitables, según la agencia.
En abril, la NHTSA dijo que había encontrado 211 incidentes en los que los Tesla chocaron con el piloto automático activado, a pesar de que los conductores tuvieron tiempo suficiente para evitar o mitigar las colisiones. En 111 casos, los conductores se salieron de la carretera después de desactivar el sistema inadvertidamente.
Musk ha dicho que la capacidad de Tesla para desarrollar tecnología de vehículos autónomos determinará en última instancia si la empresa vale mucho dinero o “básicamente nada“. El fabricante de automóviles cobra 8 mil dólares por FSD en Estados Unidos y ha dicho que buscará la aprobación regulatoria para implementarlo en Europa y China a principios del próximo año .