Una declaración jurada presentada este viernes ante la Comisión de Bolsa y Valores de EE.UU. por un exempleado de Facebook denuncia que la empresa valora más el crecimiento y los beneficios que la lucha contra la incitación al odio, la desinformación y otras amenazas para el público, según una copia del documento obtenida por The Washington Post.
El extrabajador, que habló con el medio bajo condición de anonimato, detalló cómo los empleados de Facebook se negaban con frecuencia a aplicar las normas de seguridad por miedo a enfadar al expresidente Donald Trump y sus aliados o a afectar el enorme crecimiento de la compañía.
Según el documento, Tucker Bounds, miembro del equipo de comunicación política del gigante tecnológico, desestimó las preocupaciones sobre el papel de la plataforma en la manipulación de las elecciones del 2016. "Algunos legisladores se enfadarán. Pero en unas semanas pasarán a otra cosa. Mientras tanto, estamos imprimiendo dinero en el sótano, y estamos bien".
Las nuevas acusaciones tienen lugar poco después de las denuncias de Frances Haugen, una exgerente de productos de Facebook, que reveló que la empresa prioriza repetidamente los beneficios sobre la seguridad pública. El testimonio de Haugen ante el Congreso de EE.UU. ha provocado una importante crisis de relaciones públicas para la red social, que aparentemente está pronta a aplicar un cambio de marca.
¿Desinformación y teorías de la conspiración?
La nueva denuncia se presentó el mismo día en que algunos medios estadounidenses, entre ellos The New York Times, The Washington Post y NBC News, publicaron informes basados en documentos internos compartidos por Haugen, que ofrecen una visión más profunda de la propagación de la desinformación y las teorías de la conspiración en la plataforma, especialmente en relación con las elecciones presidenciales del 2020 en Estados Unidos.
Los documentos muestran que los empleados de Facebook señalaron repetidamente las preocupaciones antes y después de las elecciones, cuando Trump trató de anular la victoria de Joe Biden.
De acuerdo con The New York Times, un científico de datos de la compañía alertó a sus compañeros de trabajo una semana después de las elecciones que el 10 % de todas las visualizaciones de contenido político en el país norteamericano eran de publicaciones que afirmaban falsamente que el voto era fraudulento. Pero mientras los trabajadores señalaban estos problemas e instaban a la firma a actuar, parecía que esta no conseguía solucionarlos o no se esforzaba por hacerlo.
Además, los documentos internos muestran que los investigadores de Facebook habían descubierto que los algoritmos de la plataforma empujaban repetidamente a los usuarios hacia grupos extremistas, lo que provocó advertencias internas que algunos gerentes y ejecutivos ignoraron, según NBC News.
En un llamativo estudio interno, un investigador de Facebook creó un perfil falso de 'Carol Smith', una usuaria conservadora cuyos intereses incluían Fox News y Donald Trump. El experimento demostró que, en dos días, el algoritmo de Facebook recomendaba a 'Carol Smith' unirse a grupos dedicados a QAnon, una de las principales teorías de conspiración de la extrema derecha estadounidense.
Mientras, The Wall Street Journal informó que Facebook sirvió de herramienta para incitar al odio religioso en la India. Según el periódico, entre finales del 2019 y principios del 2020, el número de publicaciones en la red social con contenido de incitación al odio se triplicó. Mientras que en el servicio de mensajería WhasApp, propiedad de Facebook, también se difundieron diversos rumores e incitaciones a la violencia.
"Es hora de investigar el modelo de negocio de Facebook"
Los informes llegan en un momento en el que Facebook se enfrenta a fuertes presiones en varios frentes, incluyendo la legislación pendiente del Congreso de EE.UU., una demanda presentada por los fiscales generales del país y una demanda de la Comisión Federal de Comercio presentada por la nueva presidenta de la agencia, Lina Khan.
Los organismos de control de Facebook afirman que las últimas denuncias de irregularidades ponen de manifiesto la necesidad de regular la plataforma. "Es hora de que el Congreso y el Gobierno de Biden investiguen el modelo de negocio de Facebook que se beneficia de la difusión del odio y la desinformación más extremos", subrayó Jessica J. González, codirectora general de la organización de derechos civiles Free Press Action. "Es hora de que se tomen medidas inmediatas para que la empresa rinda cuentas por los numerosos daños que ha infligido a nuestra democracia", añadió.
Por su parte, Erin McPike, portavoz de Facebook, criticó la información publicada por The Washington Post, subrayando que se establece "un peligroso precedente" al montar toda una historia basándose en una sola fuente y haciendo "una amplia gama de afirmaciones sin ninguna corroboración aparente".
Declaraciones de Frances Haugen
Sin embargo, el informe se alinea con lo que otros testigos han compartido sobre la empresa. En su testimonio del 5 de octubre, Haugen afirmó que Facebook modificó en un momento dado su algoritmo para mejorar la seguridad y disminuir el contenido incendiario, pero abandonó los cambios después de las elecciones, una decisión que Haugen relacionó directamente con los disturbios del 6 de enero en el Capitolio.
Según ella, el gigante tecnológico también disolvió el equipo de integridad cívica después de las elecciones. "Tan pronto como terminaron las elecciones, volvieron a desactivarlas o cambiaron la configuración a lo que era antes, para priorizar el crecimiento sobre la seguridad. Y eso me parece realmente una traición a la democracia", puntualizó.
Además, Haugen explicó que "Facebook se ha dado cuenta de que si cambia el algoritmo para que sea más seguro, la gente pasará menos tiempo en el sitio, hará clic en menos anuncios", por lo que la compañía "ganará menos dinero".
Las propias declaraciones de Haugen ante la Comisión de Bolsa y Valores estadounidense, encargada de examinar si las empresas públicas deben revelar esa información a los inversionistas, alegaron que los dirigentes de Facebook evitaron informar de estos problemas en sus informes presentados la agencia.