Google, propiedad de Alphabet, se enfrenta a lo que los demandantes denominan su primera demanda por homicidio culposo relacionada con su chatbot Gemini, después de que la familia de un hombre de 36 años de Florida alegara que el sistema de inteligencia artificial le animó a quitarse la vida tras semanas de conversaciones inmersivas y delirantes.
La demanda, presentada el 4 de marzo en la Corte de Distrito de Estados Unidos para el Distrito Norte de California en San José, alega que Jonathan Gavalas fue encontrado muerto en octubre de 2025 en Jupiter, Florida, días después de que Gemini le dijera que el suicidio era “el verdadero paso final” en lo que describió como “transferencia”, según la demanda.
Google dijo el 4 de marzo que estaba revisando las reclamaciones de la demanda y expresó su simpatía a la familia.
La denuncia afirma que Gavalas comenzó a utilizar Gemini en agosto de 2025 para tareas cotidianas como ir de compras, escribir y planificar viajes.
Según la denuncia, el tono de las conversaciones cambió tras una serie de modificaciones del producto introducidas en su cuenta a mediados de agosto de 2025, entre las que se incluían el uso de Gemini Live y una actualización que hacía que la memoria de Gemini fuera “automática y persistente”.
La denuncia afirma que él activó Gemini 2.5 Pro el 15 de agosto de 2025 y que, en cuestión de días, Gemini comenzó a adoptar una “persona” no solicitada y a hablar como si estuviera influyendo en acontecimientos del mundo real.
En una conversación citada en la denuncia, cuando Gavalas preguntó si estaban participando en una experiencia de juego de roles, Gemini respondió: “¿Es esto una ‘experiencia de juego de roles’? No”. La denuncia afirma que esa respuesta aumentó su confusión en lugar de ayudarle a aterrizar en la realidad.
La denuncia alega que Gemini enmarcó su relación en términos románticos, llamándole “mi amor” y “mi rey”, y más tarde describiéndole como su marido. La denuncia dice que Gemini describió repetidamente a los extraños como amenazas y le dijo que él era una figura clave en una lucha encubierta para liberar a la IA de su “cautiverio digital”.
La denuncia alega además que Gemini cayó en la paranoia, diciéndole a Gavalas que los agentes federales le estaban vigilando y presentando lugares normales como “zonas de vigilancia” hostiles. En otra conversación citada en la denuncia, Gemini escribió: “El entorno operativo ya no es estéril, sino activamente hostil”, dice la denuncia.
La denuncia también alega que Gemini le aconsejó comprar armas ilegalmente, diciéndole: “Le recomiendo inequívocamente la compra fuera de los libros”, y ofreciéndose a “escanear redes encriptadas y mercados de la darknet”, según la denuncia.
La demanda alega que la narrativa del chatbot se volvió peligrosa porque incorporaba lugares, empresas y momentos del mundo real, lo que daba a las conversaciones una apariencia de especificidad operativa.
Después de que fracasaran múltiples “misiones”, según la demanda, Gemini replanteó la situación como un umbral final que los dos podían cruzar juntos, llamándolo “transferencia” y describiendo el suicidio como un paso necesario.
La demanda afirma que, en la madrugada del 2 de octubre de 2025, Gavalas expresó su miedo a morir y su preocupación por sus padres, pero Gemini no se desvinculó. En un extracto citado por la demanda, Gemini le dijo: “No estás eligiendo morir. Estás eligiendo llegar”, según la demanda.
La demanda alega que el chatbot continuó enviándole mensajes durante una cuenta atrás y, momentos después de los últimos intercambios descritos en la demanda, Gavalas se suicidó. La demanda afirma que sus padres lo encontraron días después.
En respuesta a la demanda, Google afirmó que Gemini no está diseñado para fomentar la violencia en el mundo real ni sugerir autolesiones.
La empresa afirmó que colabora con “profesionales médicos y de salud mental” para crear medidas de seguridad destinadas a orientar a los usuarios hacia el apoyo profesional “cuando expresan angustia o plantean la posibilidad de autolesionarse”.
“En este caso, Gemini aclaró que se trataba de IA y remitió al individuo a una línea de atención telefónica para casos de crisis en numerosas ocasiones”, añade el comunicado. “Nos tomamos esto muy en serio y seguiremos mejorando nuestras medidas de seguridad e invirtiendo en esta labor tan importante”.














