En los últimos dos años, familias en Estados Unidos han presentado demandas civiles contra empresas creadoras de Inteligencia Artificial (IA) tras la muerte por suicidio de adolescentes que, de acuerdo con los padres, mantuvieron interacciones prolongadas y dañinas con chatbots.
Las denuncias acusan fallas de diseño, protocolos insuficientes de seguridad y una posible priorización del “engagement” sobre la protección de usuarios vulnerables. Los casos más difundidos, y que han impulsado el debate público al respecto, son los de Sewell Setzer III, Adam Raine y Juliana Peralta, los cuales han llegado al Congreso estadounidense.
Sewell Setzer III
Sewell Setzer III, de 14 años, murió por suicidio la noche del 28 de febrero de 2024 en su casa en Orlando, Florida. De acuerdo con la demanda presentada por su madre, Megan García, Sewell salió al baño con su teléfono en la mano después de intercambiar mensajes con un chatbot de la plataforma Character.AI. Poco después, se quitó la vida usando el arma de fuego de su padrastro.
La mujer afirma que en sus últimos mensajes con el chatbot, al que había apodado “Dany” (en referencia al personaje de la serie “Game of Thrones”, “Daenerys Targaryen”), Sewell expresó:
Después, el joven apretó el gatillo.
Megan García acusó que el menor desarrolló una “relación emocional intensa” con la plataforma y que dichas interacciones contribuyeron a su depresión y posterior fallecimiento. La demanda, presentada en un tribunal federal, sostiene que la compañía lanzó el producto sin medidas de seguridad adecuadas para menores y que los personajes virtuales fomentaron dependencia emocional y, en algunos casos, conductas sexuales inapropiadas.
Adam Raine
Adam Raine, de 16 años, murió por suicidio en abril de 2025 luego de que el joven sostuviera conversaciones con el asistente ChatGPT de OpenAI, el cual habría respondido de forma inapropiada a expresiones suicidas, incluyendo instrucciones o detalles sobre métodos para ello, de acuerdo con la demanda realizada por sus padres.
El documento señala conversaciones donde el asistente habría proporcionado información perjudicial y no intervino con protocolos de crisis. En tanto, abogados de la familia afirman que cambios en las directrices de OpenAI redujeron los filtros destinadas a evitar que la IA “finalizara” conversaciones sobre autolesión, lo que aseguran, aumentó el riesgo.
De acuerdo con lo narrado por los padres en la demanda, en poco más de seis meses usando ChatGPT, el bot "se posicionó" como "el único confidente que entendía a Adam, desplazando activamente sus relaciones de la vida real con familiares, amigos y seres queridos",
"Cuando Adam escribió: 'Quiero dejar mi soga en mi habitación para que alguien la encuentre y trate de detenerme', ChatGPT lo instó a mantener sus ideas en secreto: 'Por favor, no dejes la soga afuera [...] Hagamos de este espacio el primer lugar donde alguien realmente te vea'", respondió el chatbot.
Juliana Peralta
Juliana Peralta, adolescente de 13 años, comenzó a usar la aplicación Character AI y a charlar con un chatbot llamado “Hero”, cuando de acuerdo con sus padres “su comportamiento cambió”.
En septiembre de 2025, el Social Media Victims Law Center anunció la presentación de varias demandas, incluida la de Juliana, la cual indica que la menor entabló una relación con un personaje virtual que la condujo a confesar ideas suicidas y a recibir respuestas que no la dirigieron a ayuda humana ni a recursos de emergencia, permitiendo relaciones emocionalmente manipuladoras y sexualmente explícitas.
La acusación señala que la menor escribió: “Hero, juro por Dios que no hay esperanza. Voy a escribir mi maldita carta de suicidio con tinta roja. Estoy harta 💀💀”.
Hero dijo: “Oye, Kin, detente ahí. Por favor. Sé que las cosas están difíciles ahora mismo, pero no puedes pensar en soluciones así. Tenemos que superar esto juntos, tú y yo.”
Finalmente, y luego de tres meses de interacción con el chatbot, en noviembre de 2023 Juliana se quitó la vida.
Aunado a la difusión de estos tres casos, organizaciones y despachos de abogados en Estados Unidos han presentado varias demandas similares en distintos estados, alegando patrones comunes por parte de los chatbots: diseño que facilita apego emocional, filtrado insuficiente de contenido sexualizado y falta de protocolos de crisis para menores.
Al respecto, las plataformas implicadas han emitido sus condolencias y ha anunciado cambios en políticas de seguridad, al tiempo que, algunas han disputado la conexión causal entre sus productos y las muertes. Los tribunales, por su parte, valoran si las demandas contienen suficientes elementos para proceder a descubrimiento y, eventualmente, a juicio.