Anthropic acusa a 3 firmas chinas de IA de crear 24,000 cuentas fraudulentas para entrenar sus modelos

La empresa también expresó su preocupación por la reciente aprobación por parte de Estados Unidos de la exportación a China del chip H200, el segundo chip más avanzado de Nvidia

La página de búsqueda DeepSeek se muestra en un teléfono móvil frente a la pantalla de un ordenador portátil que muestra la página de inicio de Deepseek, en Londres, el 29 de enero de 2025. (Leon Neal/Getty Images).

La página de búsqueda DeepSeek se muestra en un teléfono móvil frente a la pantalla de un ordenador portátil que muestra la página de inicio de Deepseek, en Londres, el 29 de enero de 2025. (Leon Neal/Getty Images).

24 de febrero de 2026, 5:59 p. m.
| Actualizado el24 de febrero de 2026, 5:59 p. m.

Anthropic, creador del chatbot Claude, acusó a tres de las principales empresas chinas de inteligencia artificial (IA) de crear más de 24,000 cuentas fraudulentas para acceder a su sistema y entrenar sus propios modelos.

Las tres empresas (DeepSeek, Moonshot AI y MiniMax) presuntamente utilizaron esas cuentas para enviar más de 16 millones de mensajes a Claude, desviando la información para perfeccionar sus propios productos, según declaró Anthropic en una publicación de blog del 23 de febrero.

"Estas campañas están creciendo en intensidad y sofisticación", afirmó la empresa con sede en San Francisco.

Historias relacionadas

La importancia de contrarrestar la amenaza de la IA china

La importancia de contrarrestar la amenaza de la IA china

La táctica, conocida como "destilación", consiste en entrenar a un sistema "estudiante" más pequeño y menos potente con los resultados, el comportamiento y el conocimiento de un modelo "profesor" mucho más grande y avanzado. Esto permite que el sistema "estudiante" imite las capacidades del profesor sin el tiempo ni el dinero necesarios para desarrollarlas de forma independiente.

Anthropic afirmó que la escala de las supuestas actividades de destilación de las tres empresas variaba. DeepSeek por sí solo generó unas 150,000 interacciones con Claude, mientras que Moonshot y MiniMax registraron más de 3.4 millones y 13 millones, respectivamente, según Anthropic.

Dado que muchos modelos con sede en China, como el R1 de DeepSeek, no cobran una cuota de suscripción mensual, la destilación generalizada podría dificultar que proveedores estadounidenses, como OpenAI y Anthropic, rentabilizaran productos en cuyo desarrollo y mantenimiento han invertido miles de millones de dólares. Este desequilibrio, según la empresa, podría erosionar la ventaja competitiva de Estados Unidos en IA, que los controles de exportación están diseñados para preservar.

Anthropic, que prioriza la seguridad de la IA, advirtió además que tanto ella como otras empresas estadounidenses implementan medidas de seguridad para evitar que actores maliciosos utilicen la IA para, por ejemplo, desarrollar armas biológicas o llevar a cabo ciberataques. En cambio, los modelos destilados ilícitamente podrían carecer de dichas medidas de seguridad.

"Los laboratorios extranjeros que destilan modelos estadounidenses pueden incorporar estas capacidades desprotegidas a los sistemas militares, de inteligencia y de vigilancia, lo que permite a los gobiernos autoritarios desplegar IA de vanguardia para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva", advirtió la empresa.

Si los modelos destilados se publican posteriormente en código abierto, añadió, el riesgo se multiplica, ya que esas capacidades "se extienden libremente más allá del control de cualquier gobierno".

DeepSeek, Moonshot y MiniMax no respondieron a las solicitudes de comentarios al cierre de esta edición.

DeepSeek se situó entre los principales fabricantes de IA el año pasado con el lanzamiento de su chatbot R1, que, según afirma, se desarrolló a una fracción del costo de las principales alternativas estadounidenses. El lanzamiento provocó una liquidación de acciones tecnológicas de más de un billón de dólares, ya que los inversionistas temían que un modelo de bajo costo fabricado en China pudiera socavar el liderazgo de Silicon Valley en IA.

Desde entonces, las empresas con sede en China han inundado el mercado con modelos de texto, imagen y video relativamente asequibles. Moonshot lanzó el mes pasado un nuevo modelo de código abierto, Kimi K2.5, y busca una valoración de unos 10,000 millones de dólares en una nueva ronda de financiación, mientras que MiniMax también debutó en la bolsa con una inversión de unos 6500 millones de dólares.

Anthropic alegó que las tres empresas utilizaron "cuentas fraudulentas y servicios proxy para acceder a Claude a gran escala, evitando ser detectadas". Las redes proxy pueden ocultar la ubicación real de un usuario y permitirle eludir las restricciones regionales para abrir un gran número de cuentas.

El fabricante de Claude afirmó haber identificado a los actores con "alta fiabilidad" basándose en direcciones IP, metadatos y la "corroboración de socios del sector que observaron los mismos actores y comportamientos en sus plataformas". MiniMax, por ejemplo, fue visto en acción cuando la compañía supuestamente redirigió casi la mitad de su tráfico para desviar capacidades del último modelo de Claude en su lanzamiento, según Anthropic.

Las acusaciones surgen en un momento en que las exportaciones de chips estadounidenses a China generan debate sobre las preocupaciones de seguridad nacional.

En enero, la administración Trump publicó una nueva regulación que flexibilizó las restricciones a la exportación de los chips H200 de Nvidia, una medida que, según funcionarios federales, está justificada para fomentar la dependencia de China de chips estadounidenses de gama baja en lugar de los más avanzados. Los críticos, sin embargo, dicen que cualquier aumento potencial a la capacidad informática de IA de China es un riesgo demasiado grande para aceptarlo.

Anthropic, que ha pedido constantemente controles más estrictos sobre los chips avanzados que se envían a China, no culpó explícitamente a la política estadounidense de permitir la presunta extracción, pero citó estos ataques como justificación adicional para controles de exportación más estrictos.

"Realizar esta extracción a gran escala requiere acceso a chips avanzados", escribió la compañía en su blog, afirmando que el acceso restringido a los chips limitaría "tanto el entrenamiento directo de modelos como la escala de la destilación ilícita".

The Epoch Times se contactó con el Departamento de Comercio de EE. UU. para obtener comentarios sobre las preocupaciones de Anthropic.


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
ÚLTIMAS NOTICIAS