El Pentágono adopta los principios éticos de la inteligencia artificial para sus robots asesinos

Mark Esper aseguró que "la inteligencia artificial cambiará mucho sobre el campo de batalla del futuro".

El Departamento de Defensa de EE.UU. anunció haber adoptado formalmente un conjunto de principios éticos que regirán el uso militar de la inteligencia artificial. Estas normas se basaron en las recomendaciones realizadas por la Junta de Innovación de Defensa en octubre pasado.

"La tecnología de la inteligencia artificial cambiará mucho sobre el campo de batalla del futuro, pero nada cambiará el firme compromiso de EE.UU. con un comportamiento responsable y legal", afirmó el secretario de Defensa, Mark Esper, en un comunicado.

"EE.UU., junto con nuestros aliados y socios, debe acelerar la adopción de inteligencia artificial y liderar en su aplicación en la seguridad nacional para mantener nuestra posición estratégica, prevalecer en futuros campos de batalla y salvaguardar el orden internacional basado en reglas", dijo Esper.

Según el Pentágono, sus futuros proyectos en este campo serán "responsables, equitativos, rastreables, confiables" y, sobre todo, "gobernables". El Centro de Inteligencia Artificial Conjunto del Departamento de Defensa, con sede en Washington, implementará y coordinará las nuevas políticas.

La adopción de estos principios éticos, que pueden parecer bastante ambiguos, en lugar de una prohibición total de robots asesinos podría causar la insatisfacción de numerosos activistas, que se oponen al desarrollo de armas autónomas.

Muchos de los representantes de compañías tecnológicas, como Demis Hassabis de Google DeepMind y Elon Musk de SpaceX, están entre los más de 2.400 signatarios de un compromiso que pide a los gobiernos "crear un futuro con normas, regulaciones y leyes internacionales fuertes contra las armas letales autónomas".