El 26 de febrero, Anthropic rechazó la solicitud del Pentágono de permitir el uso sin restricciones de su modelo de IA Claude, alegando la preocupación de que la tecnología pudiera utilizarse para la vigilancia masiva nacional o para armas totalmente autónomas.
El director ejecutivo de Anthropic, Dario Amodei, dijo en una extensa entrada de blog que los casos de uso como la vigilancia masiva y el desarrollo de armas autónomas nunca se han incluido en los contratos de la empresa con el Pentágono.
Amodei dijo que esas dos aplicaciones "simplemente están fuera de los límites de lo que la tecnología actual puede hacer de forma segura y fiable", y advirtió de que, en un conjunto reducido de casos, la inteligencia artificial (IA) puede erosionar los valores democráticos.
"Es prerrogativa del Departamento seleccionar a los contratistas que más se ajusten a su visión. Pero, dado el valor sustancial que la tecnología de Anthropic aporta a nuestras fuerzas armadas, esperamos que lo reconsideren", afirmó.
Según Amodei, el Departamento de Guerra ha amenazado con eliminar a Anthropic de sus sistemas si la empresa se niega a eliminar las salvaguardias relacionadas con los dos usos en cuestión.
Amodei dijo que el Pentágono también amenazó con designar a Anthropic como un "riesgo para la cadena de suministro", lo que, según escribió en su entrada de blog, se aplica generalmente a los adversarios de Estados Unidos.
También alegó que el Departamento de Guerra amenazó con invocar la Ley de Producción de Defensa para obligar a Anthropic a permitir el uso sin restricciones de su tecnología si la empresa se negaba.
"Estas dos últimas amenazas son intrínsecamente contradictorias: una nos califica de riesgo para la seguridad; la otra califica a Claude como esencial para la seguridad nacional", escribió Amodei, añadiendo que Anthropic no cederá a la presión.
"En cualquier caso, estas amenazas no cambian nuestra postura: no podemos acceder a su petición en conciencia".
Amodei dijo que la empresa espera seguir apoyando al ejército con las garantías solicitadas.
También dijo que Anthropic está preparada para realizar una transición fluida a otro proveedor si el Pentágono decide poner fin a su colaboración.
Según Anthropic, el Pentágono utiliza el sistema de IA Claude para funciones críticas, como el análisis de inteligencia, la modelización y la simulación, la planificación operativa y las operaciones cibernéticas.
En una publicación en redes sociales, el portavoz del Pentágono, Sean Parnell, dijo que la vigilancia masiva nacional es ilegal y que el Departamento de Guerra no tiene intención de utilizar la IA para tales fines.
Parnell dijo que el Pentágono no pretende utilizar la IA para desarrollar armas autónomas que puedan funcionar sin intervención humana. Aclaró que el ejército solo pidió a Anthropic que le permitiera utilizar los modelos Claude para "todos los fines legales".
"Se trata de una petición sencilla y de sentido común que evitará que Anthropic ponga en peligro operaciones militares críticas y, potencialmente, a nuestros combatientes", afirmó en una publicación en X.
Parnell dijo que Anthropic tiene hasta las 5:01 p. m. ET del 27 de febrero para tomar una decisión, y advirtió que si no se llega a un acuerdo, el Pentágono pondrá fin a su asociación y considerará a la empresa "un riesgo para la cadena de suministro".
"No permitiremos que NINGUNA empresa dicte las condiciones sobre cómo tomamos nuestras decisiones operativas", escribió Parnell.
El pasado mes de julio, el Pentágono adjudicó a Anthropic un contrato de 200 millones de dólares que exige a la empresa crear prototipos de capacidades de IA de vanguardia para mejorar la seguridad nacional de Estados Unidos.














