Las autoridades de Corea del Sur se encuentran investigando 513 casos de delitos sexuales digitales relacionados con la distribución de imágenes y videos pornográficos de mujeres creados con Inteligencia Artificial (IA), informó este miércoles la agencia de noticias Yonhap citando a la Policía del país asiático.
La cifra, contabilizada hasta el martes, contrasta con los 297 casos de delitos sexuales en línea con contenido falso reportados a finales de julio. Además, supone un aumento de más del 70 % en unos 40 días y una cifra muy superior a los 180 casos que se reportaron en todo 2023. De mantenerse esta tendencia, se prevé que el número anual de casos alcance una cifra récord.
Según la información citada por la agencia, en lo que va del año, 318 sospechosos han sido detenidos por delitos sexuales digitales, de los cuales 251, es decir casi el 79 % son adolescentes. Muchas de las víctimas, alrededor del 62 %, también son adolescentes.
Desde el mes pasado y a petición del presidente surcoreano, Yoon Suk-yeol, las autoridades han estado investigando a fondo estos delitos, después de que medios de comunicación nacionales informaran de que en los chats de Telegram se encontraba a menudo contenido sexual falso generado por IA.
Ante las preocupaciones, la plataforma abrió la semana pasada una línea directa con la Comisión de Normas de Comunicación de Corea del Sur, y desde entonces se han retirado 61 piezas de contenido 'deepfake'. Asimismo, el organismo regulador espera celebrar una reunión con los responsables Telegram para debatir nuevas medidas contra el contenido pornográfico falso.