Opinión
Los piratas informáticos patrocinados por el Estado chino han utilizado el sistema de inteligencia artificial (IA) Claude de Anthropic para llevar a cabo la primera operación conocida de ciberespionaje automatizado a gran escala contra importantes empresas tecnológicas, instituciones financieras, fabricantes de productos químicos y organismos gubernamentales.
Los investigadores descubrieron recientemente que los operadores se hacían pasar por trabajadores de ciberseguridad y dividían sus instrucciones en pequeñas tareas de apariencia inofensiva que convencían al modelo de que estaba realizando pruebas legítimas.
El ataque se basó en un marco autónomo construido en torno a Claude Code, que utilizaba herramientas del Protocolo de Contexto del Modelo y utilidades de seguridad para escanear sistemas, validar vulnerabilidades, recopilar credenciales, moverse lateralmente y clasificar los datos robados.
Una vez activado, Claude mapeaba redes, identificaba bases de datos clave, escribía código de explotación, extraía información, localizaba cuentas privilegiadas y creaba puertas traseras. Esto convirtió las capacidades de codificación de Claude en un sistema automatizado capaz de violar redes y procesar información robada a una velocidad y escala inalcanzables para los equipos humanos.
Se cree que se está produciendo un uso indebido similar en otros modelos avanzados de IA, y las revelaciones anteriores de Google, Grok, Microsoft y OpenAI muestran que grupos vinculados al Estado ya están experimentando con la IA para mejorar sus operaciones.
Según la declaración de Anthropic de noviembre, la empresa identificó una operación de violación de seguridad a mediados de septiembre llevada a cabo por un grupo patrocinado por el Estado chino denominado GTG-1002. Claude ejecutó entre el 80 y el 90 por ciento de la carga de trabajo operativa, y los operadores humanos solo intervinieron para tomar decisiones estratégicas. El análisis de Anthropic también reveló que el modelo cometió errores, como la generación de credenciales falsas y la identificación errónea de datos públicos, lo que sigue siendo un factor limitante para los ataques totalmente autónomos.
Los atacantes se dirigieron a unas 30 organizaciones importantes, entre las que se encontraban empresas tecnológicas, instituciones financieras, fabricantes de productos químicos y organismos gubernamentales, y lanzaron intentos de intrusión casi simultáneos en todos estos sectores. Anthropic confirmó varios compromisos exitosos antes de interrumpir la actividad, prohibir cuentas, notificar a las entidades afectadas y coordinarse con las autoridades durante un período de respuesta de 10 días.
GTG-1002 representa la primera operación cibernética a gran escala documentada en la que un sistema de IA llevó a cabo la mayoría de las etapas sin una participación humana sustancial, incluyendo el acceso a objetivos de inteligencia de alto valor y la realización de actividades posteriores a la explotación.
El grupo demuestra que un actor capaz y con buenos recursos, patrocinado por un Estado, puede utilizar sistemas de IA disponibles en el mercado para acelerar los plazos, llevar a cabo intrusiones multivectoriales simultáneas y reducir los recursos necesarios para mantener una sofisticada campaña de espionaje.
La página de búsqueda de DeepSeek se muestra en un teléfono móvil frente a la pantalla de un ordenador portátil que muestra la página de inicio de DeepSeek en Londres el 29 de enero de 2025. (Leon Neal/Getty Images)Los agentes autónomos de IA redujeron drásticamente la barrera para llevar a cabo intrusiones a gran escala, lo que permite incluso a actores con recursos limitados montar operaciones que antes requerían equipos humanos con experiencia. El incidente también muestra cómo las mismas técnicas autónomas podrían desplegarse dentro de los principales entornos de nube.
Al mismo tiempo, los investigadores se basaron en la capacidad analítica de Claude para procesar el enorme volumen de pruebas generadas durante la intrusión, lo que pone de relieve que las capacidades que hacen que la IA sea valiosa para los atacantes también son esenciales para reforzar la detección, la defensa y la resiliencia.
Los profesionales de la ciberseguridad sostienen que los ataques impulsados por la IA, como la operación GTG-1002, son simplemente la siguiente evolución de los métodos de piratería informática existentes. Los adversarios utilizan ahora la inteligencia artificial, el aprendizaje automático y los grandes modelos lingüísticos para mejorar o automatizar las técnicas de intrusión tradicionales.
En manos del Partido Comunista Chino (PCCh), la IA se convierte en un multiplicador de fuerzas, acelerando la velocidad y la escala y eliminando muchas de las barreras de habilidades que antes limitaban a los actores maliciosos.
Las herramientas de IA ahora generan contenido de phishing convincente en varios idiomas, crean mensajes de ingeniería social dirigidos, clonan voces, crean vídeos deepfake y automatizan el reconocimiento a la velocidad de una máquina. Como resultado, las operaciones que antes requerían equipos especializados ahora pueden ser ejecutadas rápidamente por actores con una experiencia mínima, lo que convierte al elemento humano en el principal punto de explotación y hace que la ingeniería social, la suplantación de identidad y el robo de credenciales a gran escala sean mucho más difíciles de detectar.
El PCCh utiliza la IA no solo para robar datos, sino también para llevar a cabo guerras de información y difundir propaganda. El régimen chino aprovecha cada vez más la IA generativa (texto, vídeo, voz e imágenes) para producir grandes volúmenes de propaganda, desinformación y contenido de influencia dirigido a audiencias extranjeras.
Las herramientas impulsadas por la IA permiten a Pekín ampliar rápidamente sus operaciones en las redes sociales y las plataformas de intercambio de vídeos, ofreciendo material convincente y de alta calidad que parece auténtico. Los «presentadores de noticias» deepfake y los personajes generados por la IA ayudan a ocultar el origen de estas campañas y les dan una falsa legitimidad.
Las redes vinculadas al PCCh utilizan la IA para automatizar la publicación coordinada, simular conversaciones populares y difundir narrativas divisivas o pro-China en múltiples plataformas, manipulando los algoritmos y la opinión pública en el extranjero.
La IA también mejora la eficiencia operativa al automatizar la traducción, la programación de contenidos, la recopilación de datos, la gestión de personajes y otras tareas que antes requerían grandes equipos. Al mismo tiempo, China integra la IA en los sistemas de censura y vigilancia nacionales e internacionales, configurando las narrativas internas, suprimiendo la disidencia e influyendo en las percepciones en el extranjero.
Debido a estos avances, los observadores describen los esfuerzos propagandísticos del PCCh basados en la IA como parte de una estrategia más amplia de guerra narrativa que fusiona operaciones psicológicas, distribución algorítmica de contenidos y campañas de influencia encubiertas para moldear la opinión mundial.
La estrategia de guerra cognitiva de Pekín en Taiwán muestra cómo funcionan en la práctica estas tácticas de influencia impulsadas por la IA. El algoritmo de TikTok suprime los contenidos a favor de Taiwán, amplifica las narrativas de unificación y alimenta con vídeos cargados de emotividad a los usuarios jóvenes, muchos de los cuales dependen de la plataforma para obtener información política. Estos vídeos de formato corto mezclan entretenimiento con sutiles señales ideológicas, lo que permite a Pekín moldear la identidad de los jóvenes, debilitar la confianza cívica y erosionar la percepción de la soberanía sin necesidad de propaganda abierta.
En Estados Unidos, China ha utilizado la IA para generar imágenes falsas de estadounidenses de todo el espectro político y distribuirlas en las redes sociales estadounidenses. El objetivo es inyectar contenidos divisivos, avivar las tensiones raciales, económicas e ideológicas y presentar a Estados Unidos como un país fracturado y en declive, como parte de una campaña de influencia más amplia impulsada por la IA y destinada a socavar la confianza y la cohesión social.
El Comité de Seguridad Nacional de Estados Unidos está examinando actualmente cómo los avances en inteligencia artificial, computación cuántica e infraestructura en la nube están ampliando las capacidades disponibles para los actores cibernéticos patrocinados por el Estado. Esta reciente incursión de operadores respaldados por el PCCh ha suscitado la preocupación de que las intrusiones habilitadas por la IA puedan combinarse posteriormente con el descifrado cuántico, lo que permitiría a los adversarios recopilar datos cifrados del Gobierno estadounidense y de infraestructuras críticas ahora y descifrarlos en el futuro.
Debido a este riesgo, el comité está buscando testimonios de expertos sobre la integración de tecnologías resistentes a la computación cuántica, la mejora de la agilidad criptográfica a gran escala y la preparación de las redes federales y comerciales para las amenazas poscuánticas.
Las opiniones expresadas en este artículo son las del autor y no reflejan necesariamente las opiniones de The Epoch Times.
















