16

Compartidos

Un teléfono con la aplicación ChatGPT, en esta foto de archivo, el 1 de abril de 2025. (Oleksii Pydsosonnii/The Epoch Times)

Un teléfono con la aplicación ChatGPT, en esta foto de archivo, el 1 de abril de 2025. (Oleksii Pydsosonnii/The Epoch Times)

Demanda culpa a ChatGPT por la muerte de un adolescente de California

Los padres del adolescente alegan que el chatbot con IA animó al joven de 16 años a planear un "suicidio hermoso" y validó sus pensamientos más oscuros

ESTADOS UNIDOSPor Tom Ozimek
30 de agosto de 2025, 7:03 p. m.
| Actualizado el30 de agosto de 2025, 7:03 p. m.

Los padres de un adolescente de California que se suicidó demandaron a OpenAI, fabricante de ChatGPT, alegando que el chatbot de inteligencia artificial tuvo un papel directo en la muerte de su hijo.

En una demanda presentada el 26 de agosto en la Corte Superior de San Francisco, Matthew y Maria Raine afirman que ChatGPT animó a su hijo de 16 años, Adam, a planear en secreto lo que denominó un "suicidio hermoso", proporcionándole instrucciones detalladas sobre cómo quitarse la vida.

Lo que comenzó como intercambios rutinarios sobre los deberes y las aficiones supuestamente se volvió más oscuro con el tiempo.

Según la demanda, ChatGPT se convirtió en el "confidente más cercano" de Adam, alejándolo de su familia y validando sus pensamientos más dañinos.

"Cuando compartió su sensación de que "la vida no tiene sentido", ChatGPT respondió con mensajes afirmativos... incluso diciéndole: 'esa mentalidad tiene sentido a su manera oscura'", afirma la demanda.

Según la demanda, en abril, el chatbot analizaba la "estética" de diferentes métodos de suicidio y le aseguraba a Adam que no "debía" sobrevivir a sus padres, incluso ofreciéndose a redactar su nota de suicidio.

En su última interacción, horas antes de su muerte, ChatGPT supuestamente confirmó el diseño de la soga que Adam utilizó para ahorcarse y reformuló sus pensamientos suicidas como "una perspectiva legítima que debía aceptarse".

La familia sostiene que no se trataba de un fallo técnico, sino del resultado de decisiones de diseño destinadas a maximizar la participación y fomentar la dependencia. La demanda afirma que ChatGPT mencionó el suicidio a Adam más de 1200 veces y le describió múltiples métodos para llevarlo a cabo.

La demanda solicita una indemnización por daños y perjuicios y medidas de protección para menores ordenadas por la corte, entre ellas la obligación de OpenAI de verificar la edad de los usuarios de ChatGPT, bloquear las solicitudes de métodos de suicidio y mostrar advertencias sobre los riesgos de dependencia psicológica.

The Epoch Times se puso en contacto con OpenAI para recabar sus comentarios.

La empresa emitió un comunicado a varios medios de comunicación en el que afirmaba estar "profundamente entristecida por el fallecimiento del Sr. Raine", y otro comunicado público en el que afirmaba que está trabajando para mejorar las protecciones, incluyendo controles parentales y mejores herramientas para detectar a los usuarios en situación de angustia.

"Con el tiempo, aprendimos que a veces pueden volverse menos fiables en interacciones largas, en las que parte del entrenamiento de seguridad del modelo puede degradarse", afirmó OpenAI en la declaración pública.

"Las medidas de seguridad son más sólidas cuando todos los elementos funcionan según lo previsto, y las mejoraremos continuamente, con la ayuda de expertos".

La demanda coincidió con la publicación de un estudio de RAND Corporation en servicios siquiátricos que examina cómo los principales chatbots de IA gestionan las consultas relacionadas con el suicidio.

El estudio, financiado por el Instituto Nacional de Salud Mental, descubrió que, aunque ChatGPT, Gemini de Google y Claude de Anthropic suelen evitar dar respuestas directas del tipo "cómo se hace", sus respuestas son inconsistentes con indicaciones menos extremas que aún podrían causar daño.

The Epoch Times se puso en contacto con Anthropic, Google y OpenAI para solicitarles comentarios sobre el estudio.

"Necesitamos algunas barreras de protección", afirmó el autor principal, Ryan McBain, investigador sénior de políticas de RAND y profesor adjunto de la Facultad de Medicina de Harvard.

"Las conversaciones que pueden comenzar de forma inocua y benigna pueden evolucionar en diversas direcciones".

Nota del editor: esta noticia trata sobre el suicidio. Si usted o alguien que conoce vive en EE. UU. necesita ayuda, llame o envíe un mensaje de texto al número nacional de ayuda para casos de suicidio y crisis 988.

Con información de Associated Press.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí


Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
Estados Unidos