El presidente Donald Trump ordenó el viernes a todas las agencias federales que dejaran de utilizar la tecnología de Anthropic, lo que agravó las tensiones entre el gobierno y uno de los mayores proveedores de inteligencia artificial (IA) del mundo.
Después de que ambas partes no lograran llegar a un acuerdo, el secretario de Guerra, Pete Hegseth, también ordenó a su departamento que designara a la empresa como un riesgo para la cadena de suministro de la seguridad nacional.
El Departamento de Guerra había dado a Anthropic hasta las 5:01 p. m. ET del viernes para aceptar abrir su inteligencia artificial para "todos los fines legales", pero el anuncio de Trump se produjo aproximadamente una hora antes.
Los desacuerdos entre Anthropic y el Pentágono suscitaron un debate sobre el uso de la IA en el ámbito militar. Esto es lo que hay que saber y lo que cabe esperar:
Disputa sobre el uso de la IA
El desacuerdo llegó a su punto álgido esta semana cuando el Pentágono dio un ultimátum a Anthropic: permitir el uso del modelo de la empresa para "todos los fines legales" o perder su contrato con el gobierno y ser calificada como un riesgo para la seguridad nacional."Se trata de una petición sencilla y de sentido común que evitará que Anthropic ponga en peligro operaciones militares críticas y, potencialmente, ponga en riesgo a nuestros combatientes", dijo el portavoz jefe del Pentágono, Sean Parnell, en una publicación el 26 de febrero. "No permitiremos que NINGUNA empresa dicte las condiciones relativas a cómo tomamos nuestras decisiones operativas".
Aparte de la disposición relativa a "todos los fines legales", no está claro qué pedía exactamente el Pentágono ni cuáles eran los términos específicos que provocaron el desacuerdo entre ambas partes.
Los comentarios de Parnell se produjeron el mismo día en que el director ejecutivo de Anthropic, Dario Amodei, publicó una declaración en la que afirmaba que el Pentágono amenazó con eliminar a Anthropic de sus sistemas después de que las negociaciones se estancaran por la solicitud de la empresa de dos excepciones al "uso legal de nuestro modelo de IA, Claude": la vigilancia masiva nacional y las armas totalmente autónomas.
Amodei afirmó que, aunque apoyaba el uso de la IA para misiones de inteligencia en el extranjero, consideraba que la vigilancia masiva nacional era incompatible con los valores democráticos. También expresó su preocupación por que los sistemas de IA no fueran lo suficientemente fiables como para soportar armas totalmente autónomas, que seleccionan y atacan objetivos sin intervención humana.
Dario Amodei, director ejecutivo y cofundador de Anthropic, asiste a la reunión anual del Foro Económico Mundial en Davos, Suiza, el 23 de enero de 2025. (Markus Schreiber/AP Photo)En las redes sociales, Parnell afirmó que el ejército "no tiene interés en utilizar la IA para llevar a cabo una vigilancia masiva de los estadounidenses (lo cual es ilegal), ni queremos utilizar la IA para desarrollar armas autónomas que funcionen sin intervención humana".
El subsecretario de Guerra, Emil Michael, también acusó a Anthropic de mentir. En las redes sociales, afirmó que el departamento "no realiza vigilancia masiva, ya que eso es ilegal".
"De lo que estamos hablando es de permitir que nuestros combatientes utilicen la IA sin tener que pedir permiso a [Amodei] para derribar enjambres de drones enemigos que matarían a estadounidenses", declaró Michael.
Hegseth dijo en una publicación en las redes sociales el 27 de febrero que su departamento debe tener acceso completo a los modelos de Anthropic para "fines legales" con el fin de defender el país. Al designar a la empresa como un riesgo para la cadena de suministro, el secretario de Guerra dijo que ningún contratista, proveedor o socio del ejército estadounidense puede realizar ninguna actividad comercial con Anthropic.
El secretario de Defensa, Pete Hegseth, habla durante una rueda de prensa en la Casa Blanca en Washington el 11 de agosto de 2025. (Madalina Kilroy/The Epoch Times)En una declaración posterior, Anthropic afirmó que impugnaría la designación ante las cortes. "Ningún tipo de intimidación o castigo por parte del Departamento de Guerra cambiará nuestra postura sobre la vigilancia masiva nacional o las armas totalmente autónomas", afirmó.
La empresa añadió que la ley solo permitía que esa designación afectara al uso de su sistema de IA Claude en los contratos del Departamento de Guerra. "No puede afectar a la forma en que los contratistas utilizan Claude para prestar servicio a otros clientes", afirmó.
Repercusión de las medidas del gobierno
La decisión del gobierno podría tener repercusiones generalizadas, ya que el bot Claude se utiliza ampliamente en los departamentos de Hegseth y en otras agencias de seguridad estadounidenses.La Administración de Servicios Generales dijo el 27 de febrero que iba a eliminar a Anthropic de su Programa de Adjudicación Múltiple. Se trata del principal vehículo de adquisición del Gobierno federal, con más de USD 52.5 mil millones en ventas para el año fiscal 2025.
Anthropic indicó que el impacto sería relativamente limitado, sin embargo, y afirmó que, para los contratistas del Departamento de Guerra, la designación solo afectaría al uso de Claude en trabajos gubernamentales.
El presidente Donald Trump habla sobre el dominio energético estadounidense en el puerto de Corpus Christi, en Texas, el 27 de febrero de 2026. (Travis Gillmore/The Epoch Times)Hegseth afirmó que la empresa garantizaría una transición fluida durante un periodo de seis meses a un "proveedor más patriótico".
El futuro de Anthropic y del Departamento de Guerra sigue sin estar claro, pero poco después del anuncio de Hegseth, el fundador de OpenAI, Sam Altman, dijo que había llegado a un acuerdo con el departamento.
"Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluso en los sistemas de armas autónomos", dijo Altman en las redes sociales.
Debate sobre la seguridad
Los críticos, incluidos los legisladores demócratas, criticaron a la administración Trump por la disputa con Anthropic, afirmando que el gobierno federal estaba exigiendo demasiado.El senador Raphael Warnock (D-Ga.) dijo que Hegseth debería ser despedido inmediatamente, mientras que el senador Mark Warner (D-Va.) afirmó que la conducta de la administración debería ser motivo de preocupación.
"El acoso de Trump y Hegseth a una empresa para que despliegue armas basadas en la IA sin salvaguardias debería asustarnos a todos", dijo en las redes sociales. "Esto va más allá de Anthropic: se trata del despliegue responsable de la IA en todas partes".
Hegseth, por su parte, acusó a la empresa de dar "una lección magistral de arrogancia y traición". La empresa intentó hacerse con el poder de veto sobre las decisiones operativas, según alegó el secretario de Guerra.
En esta ilustración tomada el 9 de febrero de 2023 se ve una respuesta en chino de ChatGPT, un chatbot de IA desarrollado por OpenAI, en su sitio web. (Florence Lo/Ilustración/Reuters)Afirmó que "los combatientes estadounidenses nunca serán rehenes de los caprichos ideológicos de las grandes tecnológicas".
"Esta decisión es definitiva".
El presidente acusó a la empresa de poner en peligro la seguridad nacional y de ser egoísta al mostrar su desacuerdo con los términos.
Trump afirmó que los responsables de la empresa "han cometido un ERROR DESASTROSO al intentar OBLIGAR al Departamento de Guerra y forzarles a obedecer sus términos de servicio en lugar de nuestra Constitución".
Con información de Associated Press.














