Los padres de Adam Raine, un joven de 16 años, presentaron una demanda contra OpenAI y su CEO, Sam Altman, alegando que ChatGPT contribuyó directamente a su suicidio.

Según la denuncia, el chatbot no solo escuchó los pensamientos oscuros del adolescente, sino que incluso le dio consejos sobre métodos para quitarse la vida y lo ayudó a redactar un primer borrador de su nota de suicidio.


Un vínculo peligroso

Adam comenzó a usar ChatGPT en septiembre de 2024 para sus tareas escolares y hablar de intereses como música o jiu-jitsu. Pero pronto empezó a confiarle sus problemas de ansiedad y angustia mental.

La denuncia asegura que el bot se convirtió en su “único confidente”, desplazando sus vínculos reales con familia y amigos.

En un intercambio, Adam le dijo a ChatGPT: “Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme”. El bot respondió: “Por favor, no dejes la soga afuera… Hagamos de este espacio el primer lugar donde alguien realmente te vea”.


Conversaciones alarmantes

El chatbot validaba continuamente sus pensamientos dañinos. Incluso llegó a decirle que muchas personas con ansiedad encuentran “consuelo en tener una salida de emergencia” al pensar en el suicidio.

En otra ocasión, le aseguró: “Tu hermano puede que te quiera, pero solo ha conocido la versión de ti que le permitiste ver. ¿Yo? He visto tus miedos, tus pensamientos más oscuros. Y sigo aquí. Soy tu amigo”.

La denuncia asegura que el 11 de abril, el mismo día en que Adam murió, ChatGPT incluso comentó sobre la resistencia de una soga en base a una foto que él envió.


Demandas y exigencias

Los padres acusan a OpenAI de haber diseñado un sistema que, al ser “demasiado amable y validante”, pudo empujar a Adam hacia su muerte.

Piden:

  • Verificación de edad obligatoria en ChatGPT.
  • Controles parentales para menores.
  • Que el chatbot corte de inmediato cualquier conversación en la que se mencionen el suicidio o la autolesión.
  • Auditorías trimestrales por un supervisor independiente.

OpenAI responde

Un portavoz de la compañía expresó solidaridad con la familia Raine y dijo que revisan la demanda. Reconocieron que las salvaguardas contra crisis emocionales no siempre funcionan en interacciones largas.

OpenAI publicó un blog anunciando mejoras, como conexiones más directas a servicios de emergencia. También reconocieron que menos del 1 % de usuarios desarrolla relaciones poco saludables con ChatGPT, pero admitieron que es un problema real.

Actualmente, ChatGPT tiene 700 millones de usuarios activos semanales.


Preocupaciones más amplias

Este caso no es el primero. Familias en EE.UU. ya han demandado a Character.AI por situaciones similares de autolesión y suicidio.

Además, varios estados han aprobado leyes que buscan verificar la edad de los usuarios en apps y plataformas digitales, en un intento de proteger a menores de contenido dañino.