El canal internacional
de noticias en español
más visto en el mundo
Actualidad

Alertan de graves fallas en el sistema de conducción autónoma completa FSD de Tesla: ¿qué está pasando?

Publicado:
Pese a los problemas detectados, algunos expertos entrevistados por The Washington Post consideran que el hecho de ventilarlos públicamente demuestra la transparencia de la empresa y ayuda a comprender cómo el programa interpreta la información que recolecta.
Alertan de graves fallas en el sistema de conducción autónoma completa FSD de Tesla: ¿qué está pasando?

Los vehículos eléctricos de Tesla equipados con el 'software' de Conducción Autónoma Completa (FSD, por sus siglas en inglés), que actualmente solo es accesible en forma de beta, pueden representar un peligro en caso de aparecer en masa en las carreteras públicas, puesto que los problemas de ese programa no son fáciles de resolver.

Así lo alertó un grupo de expertos entrevistados por el diario The Washington Post en relación con numerosos videos, difundidos en las redes, donde esos coches de alta tecnología fallan en distinguir vías de tranvía o pistas de bicicleta, o no se detienen cuando alguien cruza un paso peatonal. 

El medio asegura en su artículo, publicado este 10 de febrero, haber verificado la autenticidad de las grabaciones, al tiempo que entre los peritos consultados hay tanto académicos que estudian los vehículos de conducción autónoma como empleados técnicos que analizan la seguridad de esa tecnología, entre otros. El texto deja constancia de algunas situaciones estudiadas que ponen al descubierto las deficiencias del sistema.

Obstáculos menores

En uno de los videos examinados se ve a un Tesla girar a la derecha en un cruce, en la ciudad de San José (California, EE.UU.), y chocar contra un poste que separa la vía de un carril de bicicletas. En el incidente, ocurrido a principios de febrero, el vehículo resultó con daños menores en el parachoques delantero.

Los expertos entrevistados apuntaron al FSD como causante del impacto. "En cuanto a por qué la detección automática no lo vio hasta que fue demasiado tarde, se trata de un problema de visión por ordenador. Tal vez nunca se entrenó en detectar esos postes o bolardos de formas y colores inusuales", sostuvo Brad Templeton, desarrollador de coches autoconducidos. El especialista indicó que los sensores ultrasónicos de Tesla son capaces de detectar esos peligros, pero a veces aparecen ocultos frente a tales lugares del coche que no pueden 'verlos' a tiempo.

Problemas con peatones

Otra grabación, filmada en la misma urbe en diciembre pasado, muestra a otro vehículo con el FSD hacer un giro a la derecha, pero fallar ante la necesidad de frenar, por lo que una mujer tiene que detenerse abruptamente para no ser arrollada.

Al comentar este percance, los expertos señalaron que el 'software' podría no reconocer las señales de paso peatonal ni anticipar que un individuo procede a cruzar la calle. Por su parte, Hod Finkelstein, investigador principal en la empresa especializada AEye, subrayó que la instalación de cámaras se hace insuficiente como para detectar a peatones bajo ciertas condiciones, dado que estas pueden ser cegadas por las luces delanteras o el sol.

El hecho de que Tesla siga investigando cómo detectar con seguridad a un peatón revela más detalles sobre el soporte lógico usado por la empresa, conocido como aprendizaje automático, que puede descifrar grandes volúmenes de datos y formar correlaciones que le permiten "aprender por sí mismo", explica el periódico. El gigante automotriz combina este 'software' con reglas de programación más simples, como "parar siempre ante los semáforos en rojo".

Un experto advirtió que los algoritmos de aprendizaje automático asimilan ciertos escenarios que no deberían. Según Andrew Maynard, profesor en la Universidad de Arizona, "la FSD beta todavía se ve afectada por casos límite que no ha aprendido a manejar, aunque la mayoría de los conductores humanos lo harían con facilidad".

Ilusiones ópticas

En un tercer video, grabado a principios de diciembre pasado, el vehículo eléctrico se para al notar que un peatón se dispone a cruzar la cebra. Sin embargo, empieza a detenerse mucho antes de que el transeúnte se acerque al bordillo.

Algunos peritos acentuaron que los Tesla están programados para proceder de tal forma si detectan a peatones ir rumbo a la calle. Por eso, dijo uno de los consultados por el medio, el auto podría detenerse debido a una ilusión óptica.

"Pongamos que una señal roja entre el Tesla y el peatón se alinea brevemente con un árbol en la acera, creando por un momento una imagen parecida a una señal de parada", aclaran los autores del artículo. Mientras, otra grabación subida a Internet en febrero muestra el mismo fenómeno con una falsa señal que confunde al coche.

Documentación del progreso

Algunos de los conductores que hablaron con el diario sobre los videos, salieron en defensa del FSD. Así, sostuvieron que se puede desconectar el sistema con plena seguridad antes de que la situación vaya a mayores. Además, la mayoría de ellos dijeron que los errores no sirven para evidenciar las limitaciones del programa, sino para documentar el progreso.

Pese a que algunos analistas critican la decisión de lanzar el FSD antes de ser perfeccionado por completo, otros consideran que así Tesla muestra su transparencia, al tiempo que los videos ayudan a comprender cómo el 'software' interpreta la información que recolecta.

¿Y qué dice Tesla al respecto?

El FSD es una de dos importantes tecnologías desarrolladas por la compañía. La otra es el Autopilot (Autopiloto), diseñada para el uso en autopistas. En Tesla advierten que en todo caso los conductores deben "mantener las manos en el volante en todo momento" para tomar el control si es necesario.

En cuanto al Autopilot, el CEO de Tesla, Elon Musk, ha defendido su confiabilidad, citando datos de accidentes. Sin embargo, la Administración Nacional de Seguridad del Tráfico en las Carreteras de EE.UU. investiga si dicho sistema falló en diversos incidentes. Uno de los que llamaron la atención ocurrió en otoño pasado, cuando un conductor fue inculpado en California por homicidio involuntario tras embestir contra otro auto y matar a dos personas mientras tenía el Autopilot activado.

Por su parte, Tesla sigue apostando por el FSD y lanzando actualizaciones de su versión beta, aunque en varias ocasiones tuvo que retirarlas tras señalamientos de las autoridades. A finales de enero, desde la entidad aseguraron que en EE.UU. casi 60.000 coches están equipados con dicho 'software'.

Entre tanto, los peritos consultados hicieron hincapié en que el avance en la tecnología de conducción autónoma solo se hace posible a través del análisis de las imperfecciones.  "Es como el lanzamiento de la aviación a principios del siglo XX: no acertaron con el primer avión, a la primera. Sólo siguieron mejorando cada vez que ocurría algo malo", sintetizó Mohammad Musa, fundador de la compañía Deepen AI, entre cuyos clientes se encuentra, precisamente, Tesla.

RT en Español en vivo - TELEVISIÓN GRATIS 24/7