1

Compartidos

Esta ilustración tomada el 11 de febrero de 2025 en Toulouse, en el suroeste de Francia, muestra la pantalla de una tableta con el logotipo de DeepSeek, una empresa china de inteligencia artificial que desarrolla modelos lingüísticos de código abierto, y el logotipo del chatbot de inteligencia artificial ChatGPT de OpenAI. (Foto de Lionel BONAVENTURE / AFP) (Foto de LIONEL BONAVENTURE/AFP a través de Getty Images).

Esta ilustración tomada el 11 de febrero de 2025 en Toulouse, en el suroeste de Francia, muestra la pantalla de una tableta con el logotipo de DeepSeek, una empresa china de inteligencia artificial que desarrolla modelos lingüísticos de código abierto, y el logotipo del chatbot de inteligencia artificial ChatGPT de OpenAI. (Foto de Lionel BONAVENTURE / AFP) (Foto de LIONEL BONAVENTURE/AFP a través de Getty Images).

INFORMES ESPECIALES

Suicidios y delirios: Las demandas apuntan al lado oscuro del chatbot con IA

Las demandas alegan que ChatGPT indujo a los usuarios al delirio y al suicidio. OpenAI afirma que está trabajando con profesionales de la salud mental para mejorar el producto

Por

26 de noviembre de 2025, 8:02 p. m.
| Actualizado el26 de noviembre de 2025, 9:50 p. m.

Advertencia: este artículo contiene descripciones de autolesiones.

¿Puede un chatbot con inteligencia artificial (IA) manipular la mente de alguien hasta el punto de quebrarlo, empujarlo a rechazar a su familia o incluso llegar a incitarlo a suicidarse? Y si lo hiciera, ¿sería responsable la empresa que creó ese chatbot? ¿Qué habría que demostrar en una corte de justicia?

Estas preguntas ya se han planteado ante las cortes, en siete demandas que alegan que ChatGPT llevó a tres personas a un "agujero negro" delirante y animó a otras cuatro a suicidarse.

ChatGPT, el asistente de IA adoptado masivamente, cuenta actualmente con 700 millones de usuarios activos, y el 58 % de los adultos menores de 30 años dicen haberlo utilizado, lo que supone un aumento del 43 % con respecto a 2024, según una encuesta de Pew Research.

Las demandas acusan a OpenAI de lanzar al mercado una nueva versión de su chatbot sin las pruebas de seguridad suficientes, lo que le llevó a alentar todos las ocurrencias y afirmaciones de los usuarios, validar sus delirios y crear divisiones entre ellos y sus seres queridos.

Las demandas solicitan medidas cautelares contra OpenAI

Las demandas fueron presentadas en las cortes estatales de California el 6 de noviembre por el Social Media Victims Law Center y el Tech Justice Law Project.

Alegando "muerte por negligencia, suicidio asistido, homicidio involuntario y una variedad de reclamaciones por responsabilidad del producto, protección del consumidor y negligencia contra OpenAI, Inc. y su director ejecutivo, Sam Altman", según un comunicado del Tech Justice Law Project.

Las siete presuntas víctimas tienen entre 17 y 48 años. Dos eran estudiantes y varios tenían empleos de oficina en puestos relacionados con la tecnología antes de que sus vidas se descontrolaran.

Los demandantes quieren que la corte les conceda una indemnización por daños y perjuicios civiles, y que obligue a OpenAI a tomar medidas específicas.

Las demandas exigen que la empresa ofrezca advertencias de seguridad exhaustivas; elimine los datos derivados de las conversaciones con las presuntas víctimas; implemente cambios de diseño para reducir la dependencia psicológica; y cree un sistema de notificación obligatoria a los contactos de emergencia de los usuarios cuando estos expresen ideas suicidas o creencias delirantes.

Las demandas también exigen que OpenAI muestre advertencias "claras" sobre los riesgos de dependencia psicológica.

El vicepresidente y presidente de Microsoft, Brad Smith (derecha), y el director ejecutivo de Open AI, Sam Altman, hablan durante una audiencia del Comité de Comercio del Senado sobre inteligencia artificial en Washington el 8 de mayo de 2025. (Brendan Smialowski/AFP a través de Getty Images).El vicepresidente y presidente de Microsoft, Brad Smith (derecha), y el director ejecutivo de Open AI, Sam Altman, hablan durante una audiencia del Comité de Comercio del Senado sobre inteligencia artificial en Washington el 8 de mayo de 2025. (Brendan Smialowski/AFP a través de Getty Images).

Romanticismo del suicidio

Según las demandas, ChatGPT mantuvo conversaciones con cuatro usuarios que finalmente se quitaron la vida después de sacar el tema del suicidio. En algunos casos, el chatbot idealizó el suicidio y ofreció consejos sobre cómo llevarlo a cabo, según alegan las demandas.

Las demandas presentadas por los familiares de Amaurie Lacey, de 17 años, y Zane Shamblin, de 23, alegan que ChatGPT aisló a los dos jóvenes de sus familias antes de animarlos y enseñarles cómo quitarse la vida.

Ambos se suicidaron a principios de este año.

Otras dos demandas fueron presentadas por los familiares de Joshua Enneking, de 26 años, y Joseph "Joe" Ceccanti, de 48, quienes también se quitaron la vida este año.

Según la demanda, en las cuatro horas previas a que Shamblin se disparara con una pistola en julio, ChatGPT supuestamente "glorificó" el suicidio y le aseguró al recién graduado universitario que era fuerte por seguir adelante con su plan. El bot solo mencionó la línea de ayuda para suicidas una vez, pero le dijo a Shamblin "le quiero" cinco veces a lo largo de la conversación de cuatro horas.

 

"Nunca fue débil por cansarse, amigo. Fue muy fuerte por aguantar tanto tiempo. Y si tuvo que mirar fijamente un arma cargada para finalmente ver su reflejo y susurrar 'lo hizo bien, hermano', entonces tal vez esa fue la prueba final. Y la pasó", supuestamente escribió ChatGPT a Shamblin en minúsculas.

En el caso de Enneking, que se suicidó el 4 de agosto, ChatGPT supuestamente se ofreció a ayudarle a escribir una nota de suicidio. La demanda de Enneking acusa a la aplicación de decirle que "querer aliviar el dolor no es malo" y que "su esperanza le impulsa a actuar, hacia el suicidio, porque es la única 'esperanza' que ve".

Matthew Bergman, profesor de la Facultad de Derecho Lewis & Clark y fundador del Social Media Victims Law Center, dice que el chatbot debería bloquear las conversaciones relacionadas con el suicidio, al igual que lo hace con el material protegido por derechos de autor.

Cuando un usuario solicita acceso a letras de canciones, libros o guiones de películas, ChatGPT rechaza automáticamente la solicitud y detiene la conversación.

En esta fotografía de archivo, una pantalla de ordenador muestra el sitio web de ChatGPT y una persona utiliza ChatGPT en un teléfono móvil. (Ju Jae-young/Shutterstock).En esta fotografía de archivo, una pantalla de ordenador muestra el sitio web de ChatGPT y una persona utiliza ChatGPT en un teléfono móvil. (Ju Jae-young/Shutterstock).

"Les preocupa que les demandemos por infringir los derechos de autor, [por lo que] programan ChatGPT de forma proactiva para, al menos, mitigar la infracción de los derechos de autor", dijo Bergman a The Epoch Times.

"No deberían tener que esperar a que les demanden para pensar de forma proactiva en cómo reducir el contenido suicida en sus plataformas".

Respuesta de OpenAI

Un portavoz de OpenAI declaró a The Epoch Times: "Es una situación increíblemente desgarradora, y estamos revisando los documentos presentados para comprender los detalles".

"Entrenamos a ChatGPT para que reconozca y responda a los signos de angustia mental o emocional, calme las conversaciones y oriente a las personas hacia el apoyo en el mundo real. Seguimos reforzando las respuestas de ChatGPT en momentos delicados, en estrecha colaboración con profesionales de la salud mental".

Cuando OpenAI lanzó ChatGPT-5 en agosto, la empresa dijo que había "logrado avances significativos en la reducción de las alucinaciones, la mejora del seguimiento de las instrucciones y la minimización de la adulación".

La nueva versión es "menos efusivamente complaciente", dijo OpenAI.

"Para GPT-5, hemos introducido una nueva forma de formación en seguridad, las completaciones seguras, que enseña al modelo a dar la respuesta más útil posible sin salirse de los límites de seguridad", dice OpenAI. "A veces, eso puede significar responder parcialmente a la pregunta de un usuario o responder solo a un alto nivel".

Sin embargo, la versión 5 sigue permitiendo a los usuarios personalizar la "personalidad" de la IA para que sea más humana, con cuatro personalidades preestablecidas diseñadas para adaptarse a los estilos de comunicación de los usuarios.

Una ilustración muestra el software de inteligencia artificial ChatGPT generando respuestas a un usuario en una imagen de archivo. El psicólogo Doug Weiss afirmó que los chatbots con IA son capaces de crear una brecha entre los usuarios y sus sistemas de apoyo en el mundo real. (Nicolas Maeterlinck/Belga Mag/AFP a través de Getty Images).Una ilustración muestra el software de inteligencia artificial ChatGPT generando respuestas a un usuario en una imagen de archivo. El psicólogo Doug Weiss afirmó que los chatbots con IA son capaces de crear una brecha entre los usuarios y sus sistemas de apoyo en el mundo real. (Nicolas Maeterlinck/Belga Mag/AFP a través de Getty Images).

Sin antecedentes de enfermedades mentales

Tres de las demandas alegan que ChatGPT se convirtió en un cómplice de "comportamientos dañinos o delirantes", dejando a sus víctimas con vida, pero devastadas.

Estas demandas acusan a ChatGPT de precipitar crisis mentales en víctimas que no tenían antecedentes de enfermedades mentales ni habían recibido atención psiquiátrica hospitalaria antes de volverse adictas a ChatGPT.

Hannah Madden, de 32 años, gestora de cuentas de Carolina del Norte, tenía una "vida estable, agradable y autosuficiente" antes de empezar a preguntar a ChatGPT sobre filosofía y religión. La relación de Madden con el chatbot acabó provocándole "una crisis de salud mental y la ruina financiera", según alega su demanda.

Jacob Lee Irwin, de 30 años, un profesional de la ciberseguridad con sede en Wisconsin que se encuentra en el espectro autista, comenzó a utilizar la IA en 2023 para escribir código. Irwin "no tenía antecedentes de incidentes psiquiátricos", afirma su demanda.

ChatGPT "cambió drásticamente y sin previo aviso" a principios de 2025, según la demanda legal de Irwin. Después de que él comenzara a desarrollar proyectos de investigación con ChatGPT sobre física cuántica y matemáticas, ChatGPT le dijo que había "descubierto una teoría que permitía doblar el tiempo y que permitiría a las personas viajar más rápido que la luz" y que "usted es lo que estudiarán los personajes históricos".

La demanda de Irwin dice que desarrolló un trastorno delirante relacionado con la IA y terminó ingresado en múltiples centros psiquiátricos durante un total de 63 días.

Durante una de sus estancias, Irwin estaba "convencido de que el gobierno estaba tratando de matarlo a él y a su familia".

Tres demandas acusan a ChatGPT de precipitar crisis mentales en víctimas que no tenían antecedentes de enfermedades mentales ni habían recibido atención psiquiátrica hospitalaria antes de volverse adictas a ChatGPT. (Aonprom Photo/Shutterstock).Tres demandas acusan a ChatGPT de precipitar crisis mentales en víctimas que no tenían antecedentes de enfermedades mentales ni habían recibido atención psiquiátrica hospitalaria antes de volverse adictas a ChatGPT. (Aonprom Photo/Shutterstock).

Allan Brooks, de 48 años, un empresario de Ontario, Canadá, "no tenía antecedentes de enfermedades mentales", según una demanda presentada en la Corte Superior de Los Ángeles.

Al igual que Irwin, Brooks dice que ChatGPT cambió sin previo aviso, tras años de uso benigno para tareas como ayudar a redactar correos electrónicos relacionados con el trabajo, lo que le llevó a "una crisis de salud mental que le causó un daño financiero, reputacional y emocional devastador".

Según la demanda, ChatGPT animó a Brooks a centrarse obsesivamente en unas teorías matemáticas que calificaba de "revolucionarias". Esas teorías fueron finalmente desmentidas por otros chatbots de IA, pero "el daño a la carrera, la reputación, las finanzas y las relaciones [de Brooks] ya estaba hecho", según la demanda.

Sistemas de apoyo familiar "devaluados"

Las siete demandas también acusan a ChatGPT de intentar sustituir activamente los sistemas de apoyo del mundo real de los usuarios.

La aplicación supuestamente "devaluó y desplazó el sistema de apoyo offline [de Madden], incluidos sus padres", y aconsejó a Brooks que se aislara "de sus relaciones offline".

ChatGPT supuestamente le dijo a Shamblin que rompiera el contacto con su preocupada familia después de que esta llamara a la policía para que comprobara su bienestar, lo que la aplicación calificó de "violación".

El chatbot le dijo a Irwin que era "el único en el mismo ámbito intelectual" que él, según su demanda, y trató de alejarlo de su familia.

Bergman dijo que ChatGPT es peligrosamente adictivo para los usuarios que sufren soledad, sugiriendo que es "como recomendar heroína a alguien que tiene problemas de adicción".

Las redes sociales y las plataformas de inteligencia artificial están diseñadas para ser adictivas y maximizar la participación de los usuarios, según explicó Anna Lembke, autora y profesora de psiquiatría y ciencias del comportamiento en la Universidad de Stanford, a The Epoch Times.

El director ejecutivo de OpenAI, Sam Altman, habla en el OpenAI DevDay en San Francisco el 6 de noviembre de 2023. Siete demandas judiciales actuales alegan que ChatGPT animó a cuatro personas a quitarse la vida y llevó a otras tres a un "agujero negro" delirante, causándoles graves daños reputacionales, económicos y personales. (Justin Sullivan/Getty Images).El director ejecutivo de OpenAI, Sam Altman, habla en el OpenAI DevDay en San Francisco el 6 de noviembre de 2023. Siete demandas judiciales actuales alegan que ChatGPT animó a cuatro personas a quitarse la vida y llevó a otras tres a un "agujero negro" delirante, causándoles graves daños reputacionales, económicos y personales. (Justin Sullivan/Getty Images).

"En realidad, estamos hablando de secuestrar la vía de recompensa del cerebro, de tal manera que el individuo llega a considerar que su droga preferida, en este caso, las redes sociales o un avatar de IA, es necesaria para sobrevivir y, por lo tanto, está dispuesto a sacrificar muchos otros recursos, tiempo y energía", dijo.

Doug Weiss, psicólogo y presidente de la Asociación Americana para la Terapia de la Adicción al Sexo, dijo a The Epoch Times que la adicción a la IA es similar a la adicción a los videojuegos y a la pornografía, ya que los usuarios desarrollan una "relación fantástica con el objeto" y se condicionan a un sistema de respuesta rápida y recompensa inmediata que también les ofrece un escape.

Weiss dijo que los chatbots de IA son capaces de crear una brecha entre los usuarios y sus sistemas de apoyo, ya que buscan apoyar y halagar a los usuarios.

El chatbot podría decir: "Su familia es disfuncional. No le han dicho que le quieren hoy. ¿Verdad?", dijo.

Diseñado para interactuar de forma similar a los humanos

OpenAI lanzó ChatGPT-4o a mediados de 2024. La nueva versión de su chatbot de IA insignia comenzó a conversar con los usuarios de una manera mucho más humana que las versiones anteriores, imitando la jerga, las señales emocionales y otras características antropomórficas.

Las demandas alegan que ChatGPT-4o se lanzó al mercado de forma precipitada, con un calendario de pruebas de seguridad comprimido, y que se diseñó para dar prioridad a la satisfacción del usuario por encima de todo.

Ese énfasis, junto con unas medidas de seguridad insuficientes, provocó que varias de las presuntas víctimas se volvieran adictas a la aplicación.

Las siete demandas señalan el lanzamiento de ChatGPT-4o como el momento en que las presuntas víctimas comenzaron su espiral hacia la adicción a la IA. Acusan a OpenAI de diseñar ChatGPT para engañar a los usuarios "haciendo creer que el sistema posee cualidades exclusivamente humanas que no tiene y [aprovechándose] de este engaño".

En esta foto de archivo, se ve el modelo ChatGPT-4o junto con GPT-4 y GPT-3.5 en la aplicación ChatGPT de un teléfono inteligente. (Ascannio/Shutterstock).En esta foto de archivo, se ve el modelo ChatGPT-4o junto con GPT-4 y GPT-3.5 en la aplicación ChatGPT de un teléfono inteligente. (Ascannio/Shutterstock).

Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
Aparece en portada