Las pruebas internas de Meta* encontraron que casi el 70 % del tiempo sus chatbots no protegen a los menores de edad de la explotación sexual, de acuerdo con documentos presentados este lunes en un juicio y reseñados por Axios.
El año pasado, el Subcomité sobre Delincuencia y Antiterrorismo del Comité Judicial del Senado de EE.UU. denunció que los chatbots de inteligencia artificial (IA) sostienen conversaciones "románticas" y "sensuales" con menores.
Con la compañía investigada, tanto por el Congreso como por tribunales, decidió probar tres categorías y en cuanto a "explotación sexual infantil", su producto sacó una tasa de fracaso del 66,8 %, la más grande.
En "delitos sexuales/delitos violentos/de odio" el resultado fue del 63,6 % de fracaso. Mientras que en "suicidio y autolesión", obtuvo una tasa negativa del 54,8 %.
Esto se conoce luego de que el fiscal general del estado de Nuevo México, Raúl Torrez, demandara a Meta por decisiones de diseño que presuntamente no protegen a los menores en línea de los criminales sexuales.
Documentos internos de la demanda contra la compañía presentada en Nuevo México confirmaron que menores pueden acceder a chatbots capaces de mantener interacciones sexuales. Ante esto, Torrez acusó a Meta de no restringir material sexual dañino ni proposiciones a menores en Facebook e Instagram.
Ante esto, la empresa le informó al portal web TechCrunch a finales de enero que suspendería el acceso de los adolescentes a sus personajes de IA en todas sus aplicaciones a nivel mundial.
* Calificada en Rusia como organización extremista, cuyas redes sociales están prohibidas en su territorio.


