El Departamento del Tesoro de EE. UU. pondrá fin a todo uso de los productos de Anthropic en el último enfrentamiento entre el Gobierno federal y la empresa de inteligencia artificial (IA).
El secretario del Tesoro, Scott Bessent, anunció la medida el 2 de marzo, afirmando que la prohibición se aplica a todo el departamento y forma parte de una iniciativa federal más amplia del presidente Donald Trump que ordena a las agencias dejar de utilizar la tecnología de la empresa.
"El pueblo estadounidense merece tener la confianza de que todas las herramientas del Gobierno sirven al interés público y, bajo la presidencia de Trump, ninguna empresa privada dictará jamás las condiciones de nuestra seguridad nacional", afirmó Bessent en una publicación en X.
William Pulte, director de la Agencia Federal de Financiación de la Vivienda, también anunció en X que su agencia y las empresas hipotecarias patrocinadas por el Gobierno Fannie Mae y Freddie Mac van a dejar de utilizar todos los productos de Anthropic.
Anthropic, una empresa emergente con sede en San Francisco que se centra en la seguridad de la IA, se encuentra ahora en un enfrentamiento con la administración Trump por las restricciones que ha impuesto a sus herramientas de IA, incluido su producto estrella, Claude. La empresa ha declarado que está trazando líneas rojas en torno al uso de sus sistemas en lo que describe como "vigilancia masiva" y "armas totalmente autónomas", mientras que el Pentágono ha insistido en que la empresa debe aceptar "cualquier uso legal" de sus herramientas y tecnología para apoyar al ejército estadounidense.
El director ejecutivo de Anthropic, Dario Amodei, declaró el 26 de febrero que su empresa prefería no trabajar con el Pentágono antes que aceptar dar al ejército estadounidense acceso ilimitado a sus herramientas de IA. Esa negativa llevó al secretario de Guerra, Pete Hegseth, a ordenar a su departamento que designara a Anthropic como un riesgo para la cadena de suministro, lo que significa que la empresa se consideraría poco segura para su uso por parte del Gobierno.
Tanto Trump como Hegseth anunciaron sus medidas contra Anthropic en las redes sociales. El secretario de Guerra dijo en X que prohibiría a cualquier contratista militar participar en "cualquier actividad comercial con Anthropic". En una declaración separada el 27 de febrero, Trump afirmó que Estados Unidos "nunca permitiría que una empresa radical de izquierda dicte cómo nuestro gran ejército lucha y gana guerras", argumentando que esas decisiones corresponden al comandante en jefe y a los líderes que él elija.
Trump también dio a todas las redes gubernamentales seis meses para eliminar gradualmente los productos de Anthropic.
En respuesta, Anthropic declaró que ser designada como riesgo para la cadena de suministro "sería jurídicamente incorrecto y sentaría un peligroso precedente para cualquier empresa estadounidense que negocie con el Gobierno".
"Ninguna intimidación o castigo por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia masiva nacional o las armas totalmente autónomas", declaró la empresa. "Impugnaremos ante los tribunales cualquier designación de riesgo para la cadena de suministro".
OpenAI, rival de Anthropic, anunció el 27 de febrero que había llegado a su propio acuerdo con el Pentágono para desplegar modelos de IA en entornos clasificados.
Durante el fin de semana, cientos de miembros de la industria tecnológica firmaron una carta abierta instando al Departamento de Guerra a retirar sus planes de designar a Anthropic como riesgo para la cadena de suministro. La carta también pide al Congreso que "examine si es apropiado el uso de estas autoridades extraordinarias contra una empresa tecnológica estadounidense".
Entre los firmantes se encuentran docenas de empleados de OpenAI. Boaz Barak, profesor de informática en la Universidad de Harvard e investigador de OpenAI, escribió en X que comparte la línea roja de Anthropic de impedir que los gobiernos utilicen la IA para la vigilancia masiva interna, afirmando que la tecnología "debería ser de todos".
"Si algo bueno puede salir de los acontecimientos de la última semana, sería que nosotros, en la industria de la IA, empezáramos a tratar la cuestión del uso de la IA para el abuso gubernamental y la vigilancia de su propio pueblo como un riesgo catastrófico por derecho propio", escribió.













