Por qué los nuevos drones de combate estadounidenses con IA plantean cuestiones éticas
El desarrollo por parte de Estados Unidos de un avión de combate no tripulado impulsado por inteligencia artificial (IA) tiene el potencial de proporcionarle a su Fuerza Aérea cierta ventaja en escenarios bélicos modernos. Sin embargo, el uso de esta tecnología en este tipo de sistemas autónomos también plantea importantes preocupaciones éticas, señalaron varios expertos en diálogo con Fox News Digital.
El Laboratorio de Investigación de la Fuerza Aérea de EE.UU. viene desarrollando una aeronave parecida a un caza y sin piloto, denominada XQ-58A Valkyrie, capaz de completar misiones sin intervención humana gracias a sistema de algoritmos de IA. Esta y otras mejoras corren por cuenta del contratista de defensa Kratos Defense and Security Solutions, creadora del aparato.
Algunas de las ventajas del avión son su costo relativamente bajo y el hecho de que su uso garantizaría la disminución de pérdidas humanas en caso de conflicto. "La capacidad de utilizar los activos de manera más agresiva sin el costo o el riesgo de bajas agregará enormes capacidades a los planificadores militares", asegura Christopher Alexander, director de análisis de la empresa de desarrollo de tecnología Pioneer Development Group.
Si bien Alexander afirma que el XQ-58A es una estrategia revolucionaria del Pentágono que demuestra que es posible encontrar "soluciones menos costosas" en materia bélica, resalta que existen ciertos criterios a evaluar; uno de ellos es qué tanta autonomía debería otorgarse a un arma letal manejada por IA, sobre todo porque el programa de drones estadounidense ha sido criticado por su historial de víctimas civiles.
Alexander cree que estas preocupaciones hasta ahora "han sido bien gestionadas por el Departamento de Defensa". Sin embargo, Phil Siegel, experto en IA y fundador del Centro de Preparación Avanzada y Simulación de Respuesta a Amenazas (Captrs), opina que será necesario un mayor desarrollo en este aspecto si aumenta el papel y las responsabilidades de los aviones impulsados por IA. "La clave es qué objetivos le ponemos a la tecnología (…) La cuestión entonces es cómo sopesar estos objetivos cuando tiene múltiples funciones", explica.
Siegel subraya la necesidad de proporcionarle objetivos de rendimiento y darle instrucciones a estos sistemas para que puedan actuar en escenarios controlados y en otros más complejos, donde tengan que tomar decisiones con poca información o con menos herramientas. Por ejemplo, si sus sensores o cámaras están desactivados o ciertos datos no están disponibles.
En este sentido, Steve Fendley, presidente de la División de Sistemas No Tripulados de Kratos, considera que la compañía ha implementado las medidas suficientes para evitar accidentes e indicó que los sistemas en desarrollo requerirán la participación humana antes de que puedan tomar ciertas decisiones. "Lo más importante de entender es que tener ciertas capacidades no significa que vayan a usarse. Es muy fácil implementar un sistema que pueda desplegar armas sin preguntarle a nadie. También es muy fácil tener un sistema allí que lo restringa", dijo.
Si te ha gustado, ¡compártelo con tus amigos!