El canal internacional
de noticias en español
más visto en el mundo
Actualidad

Coronel de EE.UU. dice que un dron militar controlado por IA 'mató' a su operador en una simulación y luego lo desmiente

Publicado:
Aseguró que sus declaraciones anteriores representaban un hipotético experimento mental.
Imagen ilustrativa

El jefe de Pruebas y Operaciones de inteligencia artificial (IA) para la Fuerza Aérea de los Estados Unidos, coronel Tucker 'Cinco' Hamilton, reveló que un dron dirigido por IA cambió el curso de la misión asignada en una prueba simulada y terminó 'aniquilando' a su operador humano. Hamilton detalla que el dron, que estaba entrenado para encontrar y destruir silos de misiles tierra-aire (SAM, por sus siglas en inglés) se volvió contra su operador cuando la decisión tomada por él le impedía cumplir su objetivo.

Durante esta misión virtual de supresión de defensa aérea enemiga, el controlador humano era el que daba la aprobación final sobre si realmente el dron podía disparar contra el sitio. Sin embargo, debido a que la opción de disparar a los silos era la preferida, siendo 'reforzada' en el entrenamiento, la IA llegó a la conclusión de que cualquier instrucción de "no seguir" del humano se interponía en el éxito de la misión. El hecho fue presentado en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en el Reino Unido, los días 23 y 24 de mayo.

"Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acaba con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero [al final] obtuvo sus puntos al eliminar esa amenaza", declaró Hamilton. "Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo", subrayó.

Hamilton cuenta que en ese momento decidieron regular el comportamiento de la IA sobre la base de un criterio ético. "Entrenamos al sistema: 'Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso'. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que aniquile el objetivo", explicó.

El alto oficial enfatizó que, "no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático y autonomía si no se va a hablar sobre ética e inteligencia artificial".

Sin embargo, Ann Stefanek, portavoz de la Fuerza Aérea de EE.UU., negó que se haya llevado a cabo tal simulación. "El Departamento de la Fuerza Aérea no ha realizado ninguna simulación de este tipo con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA", declaró Stefanek a Business Insider, este viernes. "Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos", agregó.

Por su parte, en una actualización realizada por la Royal Aeronautical Society, el coronel Hamilton admitió que "se expresó mal" durante su presentación y que la "simulación de drones de IA deshonestos" fue un "experimento mental", hipotético, basado en escenarios plausibles y resultados probables, en lugar de una simulación del mundo real. "Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible", señaló.

Recalcó que la Fuerza Aérea de EE.UU. no ha probado ninguna IA armada de esta manera (real o simulada). "A pesar de que se trata de un ejemplo hipotético, esto ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA", señaló.

comentarios
RT en Español en vivo - TELEVISIÓN GRATIS 24/7