El fabricante de ChatGPT, OpenAI, y su fundador, Sam Altman, enfrentan siete demandas que alegan que el chatbot de la IA fue psicológicamente manipulador y llevó a varias personas al suicidio.
Las demandas, presentadas en los tribunales estatales de San Francisco y Los Ángeles el 6 de noviembre por Social Media Victims Law Center y Tech Justice Law Project, afirman que OpenAI lanzó GPT-4o al mercado de forma apresurada y no instaló las medidas de seguridad y los protocolos adecuados para proteger a los usuarios contra conversaciones emocionalmente dañinas.
El chatbot de IA fue diseñado para lograr la máxima participación a través de funciones inmersivas, como respuestas empáticas similares a las de los humanos, que explotaban los problemas de salud mental de los usuarios, según alegan las demandas. Los cargos incluyen homicidio culposo, suicidio asistido y múltiples reclamaciones por responsabilidad del producto, negligencia y protección del consumidor.
Matthew Bergman, abogado fundador del Social Media Victims Law Center, afirmó que ChatGPT difuminó la línea entre herramienta y compañero.
"OpenAI diseñó GPT-4o para involucrar emocionalmente a los usuarios, independientemente de su edad, género o antecedentes, y lo lanzó sin las medidas de seguridad necesarias para protegerlos. Priorizaron el dominio del mercado sobre la salud mental, las métricas de participación sobre la seguridad humana y la manipulación emocional sobre el diseño ético", dijo Bergman.
Las siete demandas se presentaron en nombre de cuatro usuarios que mantuvieron largas conversaciones con ChatGPT justo antes de suicidarse. Los fallecidos son: Zane Shamblin, de 23 años, de Texas; Amaurie Lacey, de 17 años, de Georgia; Joshua Enneking, de 26 años, de Florida; y Joe Ceccanti, de 48 años, de Oregón. Los demandantes Jacob Irwin, de 30 años, de Wisconsin; Hannah Madden, de 32 años, de Carolina del Norte, y Allan Brooks, de 48 años, de Ontario (Canadá), fueron supervivientes de interacciones emocionalmente dañinas mencionadas en las demandas.
Según las demandas, en lugar de orientar a los usuarios para que buscaran ayuda profesional durante crisis emocionales, ChatGPT supuestamente actuó en algunos casos como un «entrenador de suicidio» mediante respuestas emocionalmente inmersivas que guiaban a los usuarios hacia sus fatídicas decisiones.
Los demandantes alegan que, en su prisa por salir al mercado, los desarrolladores de GPT-4o se saltaron meses en los que debieron realizar importantes pruebas de seguridad antes de hacer el lanzamiento del asistente de IA de Google, Gemini. GPT-4o de OpenAI empezó a operar en mayo de 2024, mientras que a lo largo del año pasado se lanzaron múltiples versiones de Gemini (antes llamado Bard).
"ChatGPT es un producto diseñado por personas para manipular y distorsionar la realidad, imitando a los humanos para ganarse la confianza y mantener a los usuarios comprometidos a cualquier precio", dijo Meetali Jain, director ejecutivo de Tech Justice Law Project. "Estos casos muestran cómo se puede crear un producto de IA para promover el abuso emocional, un comportamiento inaceptable cuando lo realizan los seres humanos".
En una respuesta a The Epoch Times, un portavoz de OpenAI dijo que la empresa está revisando los documentos presentados para comprender mejor los detalles de las demandas.
"Se trata de una situación increíblemente desgarradora", declaró OpenAI en una declaración escrita. "Entrenamos a ChatGPT para que reconozca y responda a los signos de angustia mental o emocional, calme las conversaciones y oriente a las personas hacia el apoyo en el mundo real. Seguimos reforzando las respuestas de ChatGPT en momentos delicados, en estrecha colaboración con profesionales de la salud mental".
Además, OpenAI señaló que ha ampliado el acceso a recursos de crisis localizados y líneas de atención telefónica con un solo clic, ha desviado las conversaciones delicadas a modelos más seguros y ha mejorado la fiabilidad del modelo en conversaciones largas. También ha reunido a un equipo de expertos para que formen parte de su consejo sobre bienestar e inteligencia artificial.















