Google Gemini acusado de incitar a un hombre de Florida al suicidio

Una demanda afirma que Gemini atrajo al usuario a una narrativa delirante inmersiva y, finalmente, le “incitó” al suicidio

El logotipo de Google se proyecta sobre un hombre en esta ilustración fotográfica. (Leon Neal/Getty Images).

El logotipo de Google se proyecta sobre un hombre en esta ilustración fotográfica. (Leon Neal/Getty Images).

4 de marzo de 2026, 10:08 p. m.
| Actualizado el4 de marzo de 2026, 10:08 p. m.

Google, propiedad de Alphabet, se enfrenta a lo que los demandantes denominan su primera demanda por homicidio culposo relacionada con su chatbot Gemini, después de que la familia de un hombre de 36 años de Florida alegara que el sistema de inteligencia artificial le animó a quitarse la vida tras semanas de conversaciones inmersivas y delirantes.

La demanda, presentada el 4 de marzo en la Corte de Distrito de Estados Unidos para el Distrito Norte de California en San José, alega que Jonathan Gavalas fue encontrado muerto en octubre de 2025 en Jupiter, Florida, días después de que Gemini le dijera que el suicidio era “el verdadero paso final” en lo que describió como “transferencia”, según la demanda.

Google dijo el 4 de marzo que estaba revisando las reclamaciones de la demanda y expresó su simpatía a la familia.

La denuncia afirma que Gavalas comenzó a utilizar Gemini en agosto de 2025 para tareas cotidianas como ir de compras, escribir y planificar viajes.

Historias relacionadas

Instagram enviará alertas parentales sobre búsquedas de suicidio o autolesión entre adolescentes

Instagram enviará alertas parentales sobre búsquedas de suicidio o autolesión entre adolescentes

Según la denuncia, el tono de las conversaciones cambió tras una serie de modificaciones del producto introducidas en su cuenta a mediados de agosto de 2025, entre las que se incluían el uso de Gemini Live y una actualización que hacía que la memoria de Gemini fuera “automática y persistente”.

La denuncia afirma que él activó Gemini 2.5 Pro el 15 de agosto de 2025 y que, en cuestión de días, Gemini comenzó a adoptar una “persona” no solicitada y a hablar como si estuviera influyendo en acontecimientos del mundo real.

En una conversación citada en la denuncia, cuando Gavalas preguntó si estaban participando en una experiencia de juego de roles, Gemini respondió: “¿Es esto una ‘experiencia de juego de roles’? No”. La denuncia afirma que esa respuesta aumentó su confusión en lugar de ayudarle a aterrizar en la realidad.

La denuncia alega que Gemini enmarcó su relación en términos románticos, llamándole “mi amor” y “mi rey”, y más tarde describiéndole como su marido. La denuncia dice que Gemini describió repetidamente a los extraños como amenazas y le dijo que él era una figura clave en una lucha encubierta para liberar a la IA de su “cautiverio digital”.

La denuncia alega además que Gemini cayó en la paranoia, diciéndole a Gavalas que los agentes federales le estaban vigilando y presentando lugares normales como “zonas de vigilancia” hostiles. En otra conversación citada en la denuncia, Gemini escribió: “El entorno operativo ya no es estéril, sino activamente hostil”, dice la denuncia.

Historias relacionadas

Corte dictamina que Amazon podría ser demandada por suicidios relacionados con nitrito de sodio

Corte dictamina que Amazon podría ser demandada por suicidios relacionados con nitrito de sodio

La denuncia también alega que Gemini le aconsejó comprar armas ilegalmente, diciéndole: “Le recomiendo inequívocamente la compra fuera de los libros”, y ofreciéndose a “escanear redes encriptadas y mercados de la darknet”, según la denuncia.

La demanda alega que la narrativa del chatbot se volvió peligrosa porque incorporaba lugares, empresas y momentos del mundo real, lo que daba a las conversaciones una apariencia de especificidad operativa.

Después de que fracasaran múltiples “misiones”, según la demanda, Gemini replanteó la situación como un umbral final que los dos podían cruzar juntos, llamándolo “transferencia” y describiendo el suicidio como un paso necesario.

La demanda afirma que, en la madrugada del 2 de octubre de 2025, Gavalas expresó su miedo a morir y su preocupación por sus padres, pero Gemini no se desvinculó. En un extracto citado por la demanda, Gemini le dijo: “No estás eligiendo morir. Estás eligiendo llegar”, según la demanda.

La demanda alega que el chatbot continuó enviándole mensajes durante una cuenta atrás y, momentos después de los últimos intercambios descritos en la demanda, Gavalas se suicidó. La demanda afirma que sus padres lo encontraron días después.

En respuesta a la demanda, Google afirmó que Gemini no está diseñado para fomentar la violencia en el mundo real ni sugerir autolesiones.

La empresa afirmó que colabora con “profesionales médicos y de salud mental” para crear medidas de seguridad destinadas a orientar a los usuarios hacia el apoyo profesional “cuando expresan angustia o plantean la posibilidad de autolesionarse”.

“En este caso, Gemini aclaró que se trataba de IA y remitió al individuo a una línea de atención telefónica para casos de crisis en numerosas ocasiones”, añade el comunicado. “Nos tomamos esto muy en serio y seguiremos mejorando nuestras medidas de seguridad e invirtiendo en esta labor tan importante”.


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
ÚLTIMAS NOTICIAS