Las Fuerzas de Defensa de Israel (FDI) han comenzado a usar inteligencia artificial (IA) para seleccionar objetivos en los ataques aéreos y organizar la logística de los mismos, informa Bloomberg citando a funcionarios del Ejército. Luego de que los líderes israelíes hayan prometido convertir el país en una "potencia de inteligencia artificial", los militares y las empresas privadas de defensa están desarrollando en secreto estos sistemas autónomos asistidos por IA.
El Ejército está utilizando un sistema de recomendación de IA para seleccionar objetivos en ataques aéreos en combinación con otro denominado Fire Factory que calcula las cargas de municiones, prioriza y asigna miles de objetivos a aviones y drones, y propone un cronograma de ataques. Ambos sistemas están supervisados por operadores humanos que examinan y aprueban los objetivos y los planes de ataques.
"Lo que solía tomar horas ahora toma minutos, con unos minutos más para la revisión humana", señaló el coronel Uri, quien encabeza la unidad de transformación digital del Ejército y quien habló con la condición de que solo se difundiera su nombre de pila por razones de seguridad. "Con la misma cantidad de personas, hacemos mucho más", agregó.
Su empleo está en ascenso en el ámbito militar
Las FDI han utilizado durante mucho tiempo la IA. Las cámaras de control fronterizo StarTrack están entrenadas con miles de horas de imágenes para identificar personas y objetos. En 2021, durante el conflicto en Gaza, las FDI emplearon estos algoritmos en lo que denominaron "la primera guerra de IA" del mundo.
Estos sistemas desarrollados se alimentan con enormes cantidades de imágenes de drones, circuitos cerrados de televisión, imágenes satelitales, señales electrónicas, comunicaciones en línea y otros datos para uso militar. Israel creó el Centro de Ciencia de Datos e Inteligencia Artificial para analizar este enorme torrente de información digital. Según un portavoz, el Centro fue responsable de desarrollar el sistema que "transformó todo el concepto de objetivos en las FDI".
"Puede ayudarte con muchas cosas en la niebla de la batalla"
Según algunos expertos, la posibilidad de reducir las bajas civiles y militares constituyen las principales ventajas de tales sistemas. "Creo que hay un beneficio de eficiencia y eficacia en el uso correcto de estas tecnologías. Y dentro de los parámetros tecnológicos de buen funcionamiento, puede haber una precisión muy, muy alta", señala Simona R. Soare, investigadora del Instituto Internacional de Estudios Estratégicos, con sede en Reino Unido. "Puede ayudarte con muchas cosas que necesitas hacer sobre la marcha, en la niebla de la batalla. Y eso es muy difícil de hacer en el mejor de los días", subraya Soare.
Crecen las preocupaciones
La naturaleza secreta de cómo se desarrollan tales herramientas ha generado serias preocupaciones. La posibilidad de un cambio de escenario en el que los sistemas semiautónomos se conviertan en completamente autónomos, facultados para localizar y atacar objetivos sin la posibilidad de que los humanos intervengan en las decisiones, es uno de los mayores riesgos.
"Es solo un cambio de 'software' que podría hacer que no sean semiautónomos sino completamente autónomos", dijo Catherine Connolly, investigadora en Stop Killer Robots, una coalición de organizaciones no gubernamentales. Israel dice que no tiene planes de eliminar la supervisión humana en los próximos años.
Por otro lado, la rápida adopción de la IA está superando la investigación sobre su funcionamiento interno y eso crea mucha inseguridad también. "A veces, cuando se introducen componentes de IA más complejos, redes neuronales y similares, comprender lo que 'pasó por su cabeza', en sentido figurado, es bastante complicado. Y luego, a veces, estoy dispuesto a decir que estoy satisfecho con la trazabilidad, no con la explicabilidad. Es decir, quiero entender lo que es crítico para mí, entender el proceso y monitorearlo, incluso si no entiendo qué está haciendo cada 'neurona'", señala el coronel Uri.
De igual manera, aun cuando la ONU ha propiciado espacios para discutir sobre este tema, no existe un marco internacional que establezca quién es responsable de las bajas civiles, los accidentes o las escaladas no intencionadas cuando una computadora juzga mal. "Si hay un error en el cálculo de la IA, y si la IA no se puede explicar, ¿a quién culpamos del error?", pregunta Tal Mimran, profesor de derecho internacional en la Universidad Hebrea de Jerusalén y exasesor legal del Ejército. "Puedes acabar con una familia entera en base a un error", enfatiza.
Por último, la cuestión de las pruebas y los datos en los que se entrenan estos sistemas es algo que preocupa a Connolly, de Stop Killer Robots. "¿Cuán preciso y exacto puede saber que será un sistema a menos que ya haya sido entrenado y probado en personas?", indicó.
Emplearlas solo para la defensa
Con base a estas preocupaciones, Mimran considera que las FDI deberían utilizar exclusivamente la IA con fines defensivos. Él asegura que, independientemente de la tecnología, "hay un punto en el que necesitas tomar una decisión basada en el valor". "Y para eso”, subraya, "no podemos confiar en la IA".