Anthropic dice que rechaza exigencias del Pentágono en materia de IA

Anthropic dijo que el Departamento de Guerra amenazó con designar a la empresa como "riesgo para la cadena de suministro"

Dario Amodei, director ejecutivo y cofundador de Anthropic, asiste a la reunión anual del Foro Económico Mundial en Davos, Suiza, el 23 de enero de 2025. (Markus Schreiber/AP Photo)

Dario Amodei, director ejecutivo y cofundador de Anthropic, asiste a la reunión anual del Foro Económico Mundial en Davos, Suiza, el 23 de enero de 2025. (Markus Schreiber/AP Photo)

27 de febrero de 2026, 4:34 p. m.
| Actualizado el27 de febrero de 2026, 4:49 p. m.

El 26 de febrero, Anthropic rechazó la solicitud del Pentágono de permitir el uso sin restricciones de su modelo de IA Claude, alegando la preocupación de que la tecnología pudiera utilizarse para la vigilancia masiva nacional o para armas totalmente autónomas.

El director ejecutivo de Anthropic, Dario Amodei, dijo en una extensa entrada de blog que los casos de uso como la vigilancia masiva y el desarrollo de armas autónomas nunca se han incluido en los contratos de la empresa con el Pentágono.

Amodei dijo que esas dos aplicaciones "simplemente están fuera de los límites de lo que la tecnología actual puede hacer de forma segura y fiable", y advirtió de que, en un conjunto reducido de casos, la inteligencia artificial (IA) puede erosionar los valores democráticos.

"Es prerrogativa del Departamento seleccionar a los contratistas que más se ajusten a su visión. Pero, dado el valor sustancial que la tecnología de Anthropic aporta a nuestras fuerzas armadas, esperamos que lo reconsideren", afirmó.

Historias relacionadas

Anthropic acusa a 3 firmas chinas de IA de crear 24,000 cuentas fraudulentas para entrenar sus modelos

Anthropic acusa a 3 firmas chinas de IA de crear 24,000 cuentas fraudulentas para entrenar sus modelos

Según Amodei, el Departamento de Guerra ha amenazado con eliminar a Anthropic de sus sistemas si la empresa se niega a eliminar las salvaguardias relacionadas con los dos usos en cuestión.

Amodei dijo que el Pentágono también amenazó con designar a Anthropic como un "riesgo para la cadena de suministro", lo que, según escribió en su entrada de blog, se aplica generalmente a los adversarios de Estados Unidos.

También alegó que el Departamento de Guerra amenazó con invocar la Ley de Producción de Defensa para obligar a Anthropic a permitir el uso sin restricciones de su tecnología si la empresa se negaba.

"Estas dos últimas amenazas son intrínsecamente contradictorias: una nos califica de riesgo para la seguridad; la otra califica a Claude como esencial para la seguridad nacional", escribió Amodei, añadiendo que Anthropic no cederá a la presión.

"En cualquier caso, estas amenazas no cambian nuestra postura: no podemos acceder a su petición en conciencia".

Amodei dijo que la empresa espera seguir apoyando al ejército con las garantías solicitadas.

También dijo que Anthropic está preparada para realizar una transición fluida a otro proveedor si el Pentágono decide poner fin a su colaboración.

Según Anthropic, el Pentágono utiliza el sistema de IA Claude para funciones críticas, como el análisis de inteligencia, la modelización y la simulación, la planificación operativa y las operaciones cibernéticas.

En una publicación en redes sociales, el portavoz del Pentágono, Sean Parnell, dijo que la vigilancia masiva nacional es ilegal y que el Departamento de Guerra no tiene intención de utilizar la IA para tales fines.

Parnell dijo que el Pentágono no pretende utilizar la IA para desarrollar armas autónomas que puedan funcionar sin intervención humana. Aclaró que el ejército solo pidió a Anthropic que le permitiera utilizar los modelos Claude para "todos los fines legales".

Historias relacionadas

Hackers chinos utilizaron IA para atacar a 30 organizaciones, según Anthropic

Hackers chinos utilizaron IA para atacar a 30 organizaciones, según Anthropic

"Se trata de una petición sencilla y de sentido común que evitará que Anthropic ponga en peligro operaciones militares críticas y, potencialmente, a nuestros combatientes", afirmó en una publicación en X.

Parnell dijo que Anthropic tiene hasta las 5:01 p. m. ET del 27 de febrero para tomar una decisión, y advirtió que si no se llega a un acuerdo, el Pentágono pondrá fin a su asociación y considerará a la empresa "un riesgo para la cadena de suministro".

"No permitiremos que NINGUNA empresa dicte las condiciones sobre cómo tomamos nuestras decisiones operativas", escribió Parnell.

El pasado mes de julio, el Pentágono adjudicó a Anthropic un contrato de 200 millones de dólares que exige a la empresa crear prototipos de capacidades de IA de vanguardia para mejorar la seguridad nacional de Estados Unidos.


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
ÚLTIMAS NOTICIAS