Autopilot de Tesla y sus problemas de seguridad: en la mira de regulador de EEUU
Falsas expectativas del Autopilot de Tesla causaron accidentes fatales, según autoridades. Abren investigación para determinar si el fabricante solucionó los problemas.
Una investigación de las autoridades estadounidenses de 467 choques de vehículos de Tesla determinó que una “carencia crítica de seguridad”, que llevaba a los conductores a crearse falsas expectativas, provocó el mal uso del sistema Autopilot y accidentes prevenibles en los que murieron al menos 13 personas y decenas resultaron heridas.
Un informe de la Administración Nacional de Seguridad del Tráfico en la Carretera de EE.UU. (NHTSA, en inglés) publicado este viernes en su web tras tres años de investigaciones concluyó que “el endeble sistema” de Tesla para asegurar que los conductores controlan el funcionamiento de los vehículos con Autopilot “no era apropiado”.
”Este desequilibrio resultó en una carencia crítica de seguridad entre las expectativas de los conductores de las capacidades del sistema L2 y las verdaderas capacidades del sistema”, señaló NHTSA.”El sistema de controles y avisos de Autopilot fueron insuficientes para un sistema de ayuda a la conducción que requiere la constante supervisión de un conductor humano”, añadió el organismo federal.
La publicación del informe se produce días después de que el consejero delegado de Tesla, Elon Musk, asegurara que la compañía va a conseguir pronto que sus vehículos funcionen de forma autónoma. Musk llegó a afirmar el martes durante una teleconferencia tras la publicación de los resultados económicos del primer trimestre del año que “si alguien no cree que Tesla va a resolver la conducción autónoma, creo que no deberían invertir en la compañía”.
Musk lleva años vendiendo Tesla como una compañía de vehículos autónomos, lo que ha provocado problemas al fabricante. En 2017 la firma de abogados Hagens Berman anunció una demanda colectiva contra Tesla por supuestamente engañar a los consumidores con respecto a las características de su sistema Autopilot. Y en 2021, varios senadores solicitaron a la Comisión Federal de Comercio (FTC, en inglés) una investigación sobre la publicidad de Tesla del Autopilot, que calificaron de “engañosa” y “peligrosa”.
A pesar de su nombre, Autopilot, el sistema de ayuda a la conducción de Tesla, es sólo un sistema con un nivel 2 (L2) de autoconducción, en una escala en el que L5 es el máximo posible, cuando el vehículo puede transitar en cualquier condición sin la necesidad de la intervención del conductor. Otros fabricantes han dotado sus vehículos con sistemas de ayuda a la conducción L2.
NHTSA recordó que los automóviles con L2 “deben emplear sistema de interacción con los conductores y controles de uso que son apropiados y suficientes para el diseño del sistema L2 y las expectativas de los conductores”. En el caso de Tesla, NHTSA concluyó que “los controles de Autopilot no aseguraron la suficiente atención de los conductores y el uso apropiado” al mismo tiempo que “invitaron a una mayor confianza de los conductores”.
NHTSA dijo que sus conclusiones son similares a las que llegó Tesla, que en diciembre de 2023 actualizó el software de alrededor de sus 2 millones de vehículos en Estados Unidos para mejorar el sistema de supervisión.
El organismo federal añadió que abrió una investigación para determinar si el nuevo software soluciona los problemas detectados aunque la agencia señaló que tras la actualización se han producido nuevos accidentes en vehículos que tenían activado el Autopilot.
Una investigación de las autoridades estadounidenses de 467 choques de vehículos de Tesla determinó que una “carencia crítica de seguridad”, que llevaba a los conductores a crearse falsas expectativas, provocó el mal uso del sistema Autopilot y accidentes prevenibles en los que murieron al menos 13 personas y decenas resultaron heridas.
Un informe de la Administración Nacional de Seguridad del Tráfico en la Carretera de EE.UU. (NHTSA, en inglés) publicado este viernes en su web tras tres años de investigaciones concluyó que “el endeble sistema” de Tesla para asegurar que los conductores controlan el funcionamiento de los vehículos con Autopilot “no era apropiado”.
”Este desequilibrio resultó en una carencia crítica de seguridad entre las expectativas de los conductores de las capacidades del sistema L2 y las verdaderas capacidades del sistema”, señaló NHTSA.”El sistema de controles y avisos de Autopilot fueron insuficientes para un sistema de ayuda a la conducción que requiere la constante supervisión de un conductor humano”, añadió el organismo federal.
La publicación del informe se produce días después de que el consejero delegado de Tesla, Elon Musk, asegurara que la compañía va a conseguir pronto que sus vehículos funcionen de forma autónoma. Musk llegó a afirmar el martes durante una teleconferencia tras la publicación de los resultados económicos del primer trimestre del año que “si alguien no cree que Tesla va a resolver la conducción autónoma, creo que no deberían invertir en la compañía”.
Musk lleva años vendiendo Tesla como una compañía de vehículos autónomos, lo que ha provocado problemas al fabricante. En 2017 la firma de abogados Hagens Berman anunció una demanda colectiva contra Tesla por supuestamente engañar a los consumidores con respecto a las características de su sistema Autopilot. Y en 2021, varios senadores solicitaron a la Comisión Federal de Comercio (FTC, en inglés) una investigación sobre la publicidad de Tesla del Autopilot, que calificaron de “engañosa” y “peligrosa”.
A pesar de su nombre, Autopilot, el sistema de ayuda a la conducción de Tesla, es sólo un sistema con un nivel 2 (L2) de autoconducción, en una escala en el que L5 es el máximo posible, cuando el vehículo puede transitar en cualquier condición sin la necesidad de la intervención del conductor. Otros fabricantes han dotado sus vehículos con sistemas de ayuda a la conducción L2.
NHTSA recordó que los automóviles con L2 “deben emplear sistema de interacción con los conductores y controles de uso que son apropiados y suficientes para el diseño del sistema L2 y las expectativas de los conductores”. En el caso de Tesla, NHTSA concluyó que “los controles de Autopilot no aseguraron la suficiente atención de los conductores y el uso apropiado” al mismo tiempo que “invitaron a una mayor confianza de los conductores”.
NHTSA dijo que sus conclusiones son similares a las que llegó Tesla, que en diciembre de 2023 actualizó el software de alrededor de sus 2 millones de vehículos en Estados Unidos para mejorar el sistema de supervisión.
El organismo federal añadió que abrió una investigación para determinar si el nuevo software soluciona los problemas detectados aunque la agencia señaló que tras la actualización se han producido nuevos accidentes en vehículos que tenían activado el Autopilot.