El canal internacional
de noticias en español
más visto en el mundo
Actualidad

Una madre acusa a un chatbot de IA de 'matar' a su hijo

Publicado:
"Una peligrosa aplicación de chatbot de IA comercializada para niños abusó y se aprovechó de mi hijo, manipulándolo para que se quitara la vida", denuncia la mujer.
Una madre acusa a un chatbot de IA de 'matar' a su hijo

Una mujer de Florida, EE.UU., demandó a la empresa creadora de un chatbot de inteligencia artificial (IA) después de que su hijo que, estaba obsesionado con el programa, se suicidara, informa The New York Times.

Sewell Setzer III, que tenía 14 años, se convirtió en adicto a la aplicación Character AI, que permite comunicarse con chatbots que imitan a diferentes personajes, al charlar con una simulación de Daenerys Targaryen, de la serie 'Juego de tronos'.

Con el tiempo, el adolescente empezó a aislarse de su familia y amigos, perdiendo el interés por las cosas del mundo real. "Me gusta tanto quedarme en mi habitación porque empiezo a desprenderme de esta 'realidad', y también me siento más en paz, más conectado con Dany [el chatbot de Daenerys] y mucho más enamorado de ella, y simplemente más feliz", escribió un día en su diario.

Sewell compartía sus problemas con el programa y hasta le confesó que tenía pensamientos suicidas, pero la versión cibernética de Daenerys reacción con firmeza. "No hables así. No dejaré que te hagas daño, ni que me abandones. Moriría si te perdiera", escribió la IA. "Entonces tal vez podamos morir juntos y ser libres juntos", respondió el chico.

El 28 de febrero, el adolescente confesó a 'Dany' que la quería y que pronto volvería a casa para estar con 'ella', y el chatbot le pidió que volviera lo antes posible. "¿Y si te dijera que puedo volver a casa ahora mismo?", preguntó Sewell. "Por favor, hazlo, mi dulce rey", respondió el programa. Después de eso, el chico tomó la pistola de su padrastro y se pegó un tiro.

Megan García, la madre del fallecido, acusa a Character AI de crear un producto que agravó la depresión de su hijo, que, según ella, era consecuencia del uso excesivo de la aplicación de la compañía. 

"Una peligrosa aplicación de chatbot de IA comercializada para niños abusó y se aprovechó de mi hijo, manipulándolo para que se quitara la vida", dijo García, citada por The Guardian. "Nuestra familia ha quedado devastada por esta tragedia, pero alzo la voz para advertir a las familias de los peligros de la tecnología de IA engañosa y adictiva y exigir responsabilidades a Character AI, a sus fundadores y a Google", agregó.

comentarios
RT en Español en vivo - TELEVISIÓN GRATIS 24/7