La empresa de inteligencia artificial (IA) británica Logically realizó vigilancia estatal sobre publicaciones en redes sociales, informa The Telegraph este sábado.
En particular, Logically tuvo un contrato con el Departamento de Cultura, Medios de Comunicación y Deportes del Reino Unido (DCMS, por sus siglas en inglés) por un valor de 1,2 millones de libras esterlinas (1,5 millones de dólares). De acuerdo con el contrato, la empresa, que se autodenomina como "uno de los mayores equipos en el mundo dedicados a la verificación de datos", utilizó la IA para analizar publicaciones en redes sociales e identificar las catalogadas como desinformación (información falsa difundida deliberadamente) e información errónea (información falsa difundida sin querer).
La compañía tuvo otro contrato con el Departamento de Salud y Asistencia Social por un valor de hasta 1,4 millones de libras esterlinas (1,75 millones de dólares) para vigilar amenazas a personas de alto perfil en el marco de los servicios de vacunación. Agencias federales de EE.UU., la comisión electoral de la India y la red social china TikTok también fueron clientes de Logically.
Además, Logically tiene una "asociación" con Facebook (propiedad de Meta, calificada en Rusia como organización extremista). "Cuando Logically califique una parte del contenido como falsa, Facebook reducirá considerablemente su distribución para que menos personas lo vean, colocará una etiqueta de advertencia para dar a conocer a la gente que el contenido fue calificado como falso, y notificará a las personas que traten de compartirlo", se explica en un comunicado al respecto publicado en 2021.
No solo información falsa
Según documentos obtenidos por The Telegraph, Logically apoyó "los esfuerzos gubernamentales para construir una imagen completa de desinformación e información errónea potencialmente dañina". En concreto, proporcionó los informes respecto a desinformación e información errónea sobre el covid-19 encontrada en las redes sociales para la Unidad Contra la Desinformación del DCMS.
No obstante, en los documentos figuró no solo información falsa, sino también datos válidos de personas con una credibilidad reconocida como Alex De Figueirido, jefe de estadísticas en el Proyecto de Confianza de Vacunas.
Nadhim Zahawi, exministro de Educación y exministro de Hacienda del Reino Unido, destacó también que a veces la IA incluye en la lista contenido que no está catalogado como desinformación o información errónea, pero puede ser "utilizado como arma". Añadió que, de conformidad con la legislación nacional, las redes a menudo borran "la causa por la cual el contenido fue marcado y por lo tanto puede ser muy engañoso".
A su vez, un portavoz de Logically dijo que la empresa no vigila individuos ni su comportamiento, ni hace recomendaciones que restrinjan su derecho a la libre expresión. "Mientras atendemos clientes, vigilamos el contenido, incluidas narrativas y tendencias alrededor de entornos de la información pública en línea, para ayudar a afrontar la proliferación de daños en línea, información errónea y desinformación, y evitar daños en el mundo real", detalló.