2

Compartidos

La Oficina Federal de Investigaciones en Washington, el 7 de agosto de 2025. (Madalina Kilroy/The Epoch Times).

La Oficina Federal de Investigaciones en Washington, el 7 de agosto de 2025. (Madalina Kilroy/The Epoch Times).

FBI advierte que los deepfakes con IA son cada vez más difíciles de detectar

Los deepfakes son imágenes, videos o audios que imitan a personas conocidas o de confianza

ESTADOS UNIDOSPor Naveen Athrappully
8 de septiembre de 2025, 2:54 p. m.
| Actualizado el8 de septiembre de 2025, 2:56 p. m.

El contenido deepfake, cada vez más difícil de detectar y creado con inteligencia artificial, está siendo explotado por delincuentes para hacerse pasar por personas de confianza, según informaron el FBI y la Asociación Americana de Banqueros (ABA) en un informe publicado el 3 de septiembre.

En su infografía "Estafas con Medios Deepfake", el FBI indicó que las estafas dirigidas a estadounidenses están en aumento . Desde 2020, la agencia ha recibido más de 4.2 millones de denuncias de fraude, lo que representa pérdidas por 50.5 mil millones de dólares. "Las estafas de impostores, en particular, están en aumento... Los delincuentes utilizan deepfakes, o medios generados o manipulados por IA, para ganarse la confianza y estafar al usuario.

El contenido deepfake puede incluir imágenes, audio o video alterados. Los estafadores pueden hacerse pasar por familiares, amigos o figuras públicas, incluyendo celebridades, agentes del orden y funcionarios gubernamentales, advirtió el FBI.

"Los deepfakes son cada vez más sofisticados y difíciles de detectar", afirmó Sam Kunjukunju, vicepresidente de educación del consumidor de la Fundación ABA.

Según la infografía, ciertas inconsistencias en el material generado por IA pueden ayudar a detectar deepfakes.

En el caso de imágenes o videos, es importante prestar atención a rostros borrosos o distorsionados; sombras o iluminación poco naturales; si el audio y el video están desincronizados; si los dientes y el cabello parecen reales; y si la persona parpadea demasiado o muy poco. En el caso del audio, es importante escuchar atentamente para determinar si el tono de voz es demasiado monótono o poco natural.

La infografía enumeraba tres señales de alerta de una estafa deepfake: solicitudes inesperadas de dinero o información personal; manipulación emocional con urgencia o miedo; y comunicación inusual de quien parece ser una persona conocida.

Para mayor seguridad, la ABA y el FBI aconsejaron a los estadounidenses pensar antes de responder a solicitudes emocionales o urgentes y crear palabras o frases clave para confirmar la identidad de los usuarios.

"El FBI continúa observando un preocupante aumento en los reportes de fraude relacionados con medios deepfake", declaró José Pérez, subdirector de la División de Investigación Criminal del FBI.

"Educar al público sobre esta amenaza emergente es clave para prevenir estas estafas y minimizar su impacto. Animamos a los consumidores a mantenerse informados y a compartir lo que aprendan con sus amigos y familiares para que puedan detectar los deepfakes antes de que causen algún daño".

Según un informe del 6 de agosto de la empresa de ciberseguridad Group-IB, se estima que el impacto económico global de las pérdidas causadas por el fraude a través de deepfakes alcanzará los 40,000 millones de dólares para 2027.

"El dinero robado casi nunca se recupera: debido al rápido lavado de dinero a través de cadenas de mulas y mezcladores de criptomonedas, menos del 5  por ciento de los fondos perdidos en sofisticadas estafas de vishing se recuperan", indicó.

El vishing, abreviatura de phishing de voz, se refiere a estafadores que se hacen pasar por figuras de autoridad, como funcionarios gubernamentales, personal de soporte técnico y empleados bancarios, para engañar a sus víctimas y robarles dinero.

Según Group-IB, el vishing deepfake se basa en gran medida en tácticas de manipulación emocional. Entre los objetivos de estas estafas se incluyen ejecutivos corporativos y empleados financieros.

Las personas mayores y con problemas emocionales también son vulnerables a las tácticas de vishing deepfake debido a su limitada alfabetización digital y a su desconocimiento de la tecnología de voz artificial, añadió Group-IB. Por lo tanto, las estafas que implican la suplantación de voces familiares pueden tener un mayor impacto en estas personas.

En junio, se reveló un incidente de estafa deepfake en el que un canadiense de unos 80 años perdió más de 15,000 dólares en un plan que utilizó una falsificación profunda del primer ministro de Ontario, Doug Ford.

En la estafa, Ford aparecía promocionando una cuenta de fondos mutuos, que la víctima vio a través de un anuncio de Facebook. Al hacer clic en el anuncio, se abría un chat que finalmente lo convenció de invertir el dinero

En junio, el senador Jon Husted (R-OH) presentó la Ley bipartidista para la Prevención de Estafas Deep Fake, cuyo objetivo es abordar la amenaza que representa este tipo de fraude.

El proyecto de ley busca abordar el robo o fraude de datos e identidad asistido por IA mediante la creación de un grupo de trabajo especializado en IA en el sector financiero.

"Los estafadores utilizan deep fakes para hacerse pasar por familiares de las víctimas y robarles el dinero", declaró Husted.

"Mientras los estafadores continúan con sus planes, debemos asegurarnos de utilizar la IA para proteger mejor a los estadounidenses inocentes y evitar que estas estafas ocurran. Mi proyecto de ley protegería a las personas mayores, las familias y los propietarios de pequeñas empresas de Ohio de actores maliciosos que se aprovechan de su compasión".


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí


 

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
Estados Unidos