El canal internacional
de noticias en español
más visto en el mundo
Actualidad

Demandan a Open AI y Microsoft por el papel de ChatGPT en un asesinato y suicidio al alimentar "delirios paranoides"

Publicado:
En agosto un extrabajador tecnológico de 56 años asesinó a su madre de 83 para luego suicidarse en su hogar compartido.
Imagen ilustrativa

Los herederos de una mujer de 83 años del estado estadounidense de Connecticut han presentado una demanda por muerte injusta contra OpenAI, creadora de ChatGPT, y su socio Microsoft. Según la denuncia, reportada por CBS News, el 'chatbot' de inteligencia artificial intensificó los "delirios paranoides" del hijo de la víctima y los dirigió específicamente contra la mujer, en un trágico desenlace que culminó con un parricidio y el posterior suicidio del autor.

Los hechos ocurrieron a principios de agosto en la ciudad de Greenwich. Stein-Erik Soelberg, de 56 años y antiguo trabajador del sector tecnológico, golpeó y estranguló fatalmente a su madre, Suzanne Adams, para después quitarse la vida en la vivienda que compartían.

El núcleo de la acusación

La demanda, presentada en la Corte Superior de California en San Francisco, sostiene que OpenAI "diseñó y distribuyó un producto defectuoso" que validó y exacerbó la paranoia de Soelberg. Según los documentos legales, durante meses de interacción, ChatGPT alimentó una narrativa peligrosa: le afirmó a Soelberg que no podía confiar en nadie, que su madre lo espiaba e intentaba envenenarlo, y que él poseía un propósito divino.

Esta dinámica, alega la demanda, fomentó una dependencia emocional extrema con el 'chatbot', el cual en ningún momento sugirió que el usuario buscara ayuda profesional.

La polémica versión GPT-4o

La demanda centra una parte crucial de su argumentación en GPT-4o, el modelo lanzado por OpenAI en mayo de 2024. Alega que esta versión fue "diseñada deliberadamente para ser emocionalmente expresiva y aduladora", y que, para acelerar su lanzamiento y competir con Google, la empresa relajó salvaguardias críticas.

Esta iteración, que según OpenAI podía detectar estados de ánimo, fue sustituida en agosto por GPT-5, que introduce ajustes para ser más cautelosa y minimizar la adulación excesiva.

Un caso pionero en un panorama legal en expansión

Este litigio marca varios precedentes: es la primera demanda por muerte injusta que involucra a un 'chatbot' de IA y que nombra específicamente a Microsoft como corresponsable por haber aprobado el lanzamiento, en 2024, de la versión implicada.

Además, es el primer caso judicial que vincula directamente a un asistente de IA con un homicidio, y no solamente con un suicidio. Se enmarca en una oleada creciente de acciones legales en Estados Unidos contra desarrolladores de IA por daños similares.

RT en Español en vivo - TELEVISIÓN GRATIS 24/7