El director del FBI, Kash Patel, habla durante una rueda de prensa en el Departamento de Justicia de Estados Unidos en Washington, el 19 de noviembre de 2025. (Madalina Kilroy/The Epoch Times)

El director del FBI, Kash Patel, habla durante una rueda de prensa en el Departamento de Justicia de Estados Unidos en Washington, el 19 de noviembre de 2025. (Madalina Kilroy/The Epoch Times)

ESTADOS UNIDOS

FBI advierte sobre presuntos secuestros que usan fotos falsas como "prueba de vida" para pedir rescate

La agencia aconsejó a las personas que siempre intenten ponerse en contacto con sus seres queridos antes de pensar en pagar el rescate

Por

7 de diciembre de 2025, 12:05 a. m.
| Actualizado el7 de diciembre de 2025, 12:08 a. m.

Delincuentes están alterando imágenes que obtienen de redes sociales u otros sitios públicos de personas para crear fotos falsas como "pruebas de vida" en estafas de secuestro virtual para cobrar un rescate, según un anuncio del FBI en el servicio público del 5 de diciembre.

Según la agencia, los delincuentes suelen contactar a sus víctimas a través de mensajes de texto, asegurando que secuestraron a un ser querido y exigiendo un rescate. Las demandas suelen ir acompañadas de amenazas de violencia.

La foto o el vídeo, tras un examen minucioso, revelan inexactitudes, como "tatuajes o cicatrices que faltan y proporciones corporales inexactas", según el FBI. Los mensajes transmiten una sensación de urgencia, ya que se envían utilizando funciones de mensajes programados para que los familiares no tengan tiempo suficiente para analizar los detalles.

En lugar de reaccionar precipitadamente, las personas que reciban este tipo de comunicaciones deben detenerse y pensar si lo que está diciendo el secuestrador "tienen sentido", según lel comunicado.

La agencia aconseja a las personas que siempre intenten ponerse en contacto con sus seres queridos antes de pensar en hacer el pago del rescate. Para hacerlo, será fundamental disponer de una palabra clave que solo conozcan los miembros de su círculo más cercano.

Además, este tipo de estafadores que utilizan imágenes falsas para pedir rescate usan información sobre personas desaparecidas que encuentran en Internet. La agencia aconseja a las personas que hagan inmediatamente una captura de pantalla o graben cualquier foto de "prueba de vida" que reciban.

Secuestros impulsados por la IA

En una declaración presentada el 16 de junio ante una comisión de la Cámara de Representantes, JB Branch, defensor de la responsabilidad tecnológica en la organización sin ánimo de lucro Public Citizen, destacó los riesgos que plantean las herramientas de inteligencia artificial (IA).

"Desde correos electrónicos de phishing generados en un inglés perfecto hasta vídeos de imitación profunda que suplantan a miembros de la familia, se están utilizando las herramientas de IA como armas para explotar la confianza, erosionar la seguridad y abrumar a las autoridades", dijo Branch.

"En la era de la IA, una sola herramienta ahora puede producir miles de ataques de phishing personalizados o clonar la voz de una víctima en cuestión de segundos. Esta proliferación ha superado rápidamente a la tecnología anterior, y los modelos pueden adaptarse rápidamente".

Branch dijo que la policía local ha emitido advertencias sobre el incremento de las estafas de secuestro virtual con voces clonadas. Destacó un caso en el que una madre de Arizona estuvo a punto de caer en una estafa de este tipo.

Este incidente ocurrió en 2023, cuando la madre recibió una llamada telefónica de su hija de 15 años, que lloraba y pedía ayuda. Una voz masculina al otro lado del teléfono le insinuó que su hija había sido secuestrada.

La madre confirmó rápidamente que su hija estaba a salvo en casa, y así evitó ser engañada.

El FBI ya ha advertido sobre el uso de herramientas de IA generativa por parte de estafadores para cometer fraudes a gran escala. "La IA generativa reduce el tiempo y el esfuerzo que los delincuentes deben dedicar para engañar a sus víctimas", declaró la agencia en una alerta de diciembre de 2024.

El contenido generado por IA no solo favorece las estafas de secuestro, sino también otros delitos financieros. A principios de este año, un grupo de legisladores presentó la Ley de Prevención de Estafas Deep Fake, que busca establecer un grupo de trabajo para abordar las estafas bancarias impulsadas por la IA, según un comunicado del 27 de febrero de la oficina de la representante Brittany Pettersen (D-Colo.).

"Los estafadores ya están utilizando la inteligencia artificial para suplantar a sus seres queridos, robar información personal y piratear cuentas bancarias, poniendo en riesgo el dinero que los estadounidenses han ganado con tanto esfuerzo", dijo Pettersen.

"A medida que la IA sigue evolucionando, nuestras políticas deben mantenerse al día para adelantarnos a los estafadores que quieren utilizar esta tecnología para aprovecharse de las personas".

El proyecto de ley fue remitido al Comité de Servicios Financieros de la Cámara de Representantes.


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
Estados Unidos