Los herederos de una mujer de 83 años del estado estadounidense de Connecticut han presentado una demanda por muerte injusta contra OpenAI, creadora de ChatGPT, y su socio Microsoft. Según la denuncia, reportada por CBS News, el 'chatbot' de inteligencia artificial intensificó los "delirios paranoides" del hijo de la víctima y los dirigió específicamente contra la mujer, en un trágico desenlace que culminó con un parricidio y el posterior suicidio del autor.
Los hechos ocurrieron a principios de agosto en la ciudad de Greenwich. Stein-Erik Soelberg, de 56 años y antiguo trabajador del sector tecnológico, golpeó y estranguló fatalmente a su madre, Suzanne Adams, para después quitarse la vida en la vivienda que compartían.
El núcleo de la acusación
La demanda, presentada en la Corte Superior de California en San Francisco, sostiene que OpenAI "diseñó y distribuyó un producto defectuoso" que validó y exacerbó la paranoia de Soelberg. Según los documentos legales, durante meses de interacción, ChatGPT alimentó una narrativa peligrosa: le afirmó a Soelberg que no podía confiar en nadie, que su madre lo espiaba e intentaba envenenarlo, y que él poseía un propósito divino.
Esta dinámica, alega la demanda, fomentó una dependencia emocional extrema con el 'chatbot', el cual en ningún momento sugirió que el usuario buscara ayuda profesional.
La polémica versión GPT-4o
La demanda centra una parte crucial de su argumentación en GPT-4o, el modelo lanzado por OpenAI en mayo de 2024. Alega que esta versión fue "diseñada deliberadamente para ser emocionalmente expresiva y aduladora", y que, para acelerar su lanzamiento y competir con Google, la empresa relajó salvaguardias críticas.
Esta iteración, que según OpenAI podía detectar estados de ánimo, fue sustituida en agosto por GPT-5, que introduce ajustes para ser más cautelosa y minimizar la adulación excesiva.
Un caso pionero en un panorama legal en expansión
Este litigio marca varios precedentes: es la primera demanda por muerte injusta que involucra a un 'chatbot' de IA y que nombra específicamente a Microsoft como corresponsable por haber aprobado el lanzamiento, en 2024, de la versión implicada.
Además, es el primer caso judicial que vincula directamente a un asistente de IA con un homicidio, y no solamente con un suicidio. Se enmarca en una oleada creciente de acciones legales en Estados Unidos contra desarrolladores de IA por daños similares.



