El Departamento de Defensa (DOD, por sus siglas en inglés) de EE.UU. contrató la empresa DeepMedia para utilizar sus tecnologías de inteligencia artificial (IA) con el fin de detectar ultrafalsificaciones, informó este martes Fox Bussines. Dada la relativa facilidad con la que es posible crear estas imitaciones realistas para engañar al personal militar o de inteligencia, el Pentágono ha emprendido un programa de detección de estos productos engañosos basados en inteligencia artificial. Su argumento es que los 'deepfakes' podrían representar una amenaza para la seguridad nacional.
"Nos han contratado para construir algoritmos de aprendizaje automático que pueden detectar caras o voces generadas sintéticamente o modificadas en todos los idiomas principales, en todas las razas, edades y géneros, y desarrollar esa IA en una plataforma que se pueda integrar en el DOD", comentó Rijul Gupta, director ejecutivo y cofundador de DeepMedia.
"Hay amenazas para miembros individuales del Departamento de Defensa, alistados y oficiales, del nivel más alto y el más bajo que podrían ser falsificados con su rostro o voz y que podrían ser utilizados para adquirir información de alto secreto por parte de nuestros adversarios a nivel internacional", agregó.
La capacidad de "determinar con un 99,5 % de precisión si algo es real o manipulado"
Según el alto ejecutivo, la tecnología de IA de la empresa puede tomar un audio o video, extraer las caras y las voces de ese contenido automáticamente y luego ejecutar la cara o la voz o ambos a través de los algoritmos de detección. "Nuestros algoritmos de detección han sido entrenados en millones de muestras tanto reales como falsas en 50 idiomas diferentes y han podido determinar con un 99,5 % de precisión si algo es real o si ha sido manipulado usando una IA de alguna manera", explicó.
Además, señaló que cuando el algoritmo determina que una parte del contenido ha sido manipulada, resalta y alerta a un usuario del DOD sobre este hecho y señala exactamente qué parte del audio o video ha sido manipulada. También subrayó que la herramienta puede determinar la intención que hay detrás de esa manipulación y qué algoritmo se usó para crearla. Según Gupta, de este modo los analistas del DOD podrán alertar del asunto a la persona apropiada.
Gupta igualmente señala que, la ONU está aprovechando las capacidades generativas de inteligencia artificial de DeepMedia para "promover la traducción automática y la síntesis vocal en los principales idiomas del mundo". En su apreciación, este elemento constituye una fortaleza. "Cuanta más gente use este producto generativo, más datos obtendremos tanto del lado real como del falso, lo que hace que nuestra detección sea mejor", enfatizó.
Así mismo sugirió que el entrenamiento del algoritmo en el reconocimiento de patrones falsos le permite fortalecer sus capacidades en la generación de contenido falso más realista. "Nuestros detectores se alimentan en el lado generativo, y cuanto mejores se vuelven nuestros detectores, mejor se vuelven también nuestros generadores".