¿Por qué el Pentágono ve riesgos en Anthropic? Contratos buscan control humano sobre la IA letal

La renuncia de una directiva de OpenAI y el pulso entre Anthropic y el Pentágono reabren el debate sobre vigilancia, armas autónomas y límites éticos de la IA

En esta ilustración, se ve el sitio web de Claude AI en un ordenador portátil el 16 de febrero de 2026 en la ciudad de Nueva York. Según informes del Wall Street Journal, el Departamento de Defensa utilizó Claude Ai de Anthropic, a través de su contrato con Palantir, para ayudar en el ataque a Venezuela y capturar al expresidente Nicolás Maduro. (Ilustración fotográfica de Michael M. Santiago/Getty Images).

En esta ilustración, se ve el sitio web de Claude AI en un ordenador portátil el 16 de febrero de 2026 en la ciudad de Nueva York. Según informes del Wall Street Journal, el Departamento de Defensa utilizó Claude Ai de Anthropic, a través de su contrato con Palantir, para ayudar en el ataque a Venezuela y capturar al expresidente Nicolás Maduro. (Ilustración fotográfica de Michael M. Santiago/Getty Images).

Por

Epoch Times Español
10 de marzo de 2026, 1:23 a. m.
| Actualizado el10 de marzo de 2026, 1:25 a. m.

Opinión

El 7 de marzo, Caitlin Kalinowski, directora de robótica y hardware de OpenAI, dimitió a raíz del acuerdo de su empresa con el Pentágono, afirmando que la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana eran argumentos que "merecían más reflexión de la que tuvieron". Su salida se produjo después de que Microsoft, Google y Amazon Web Services (las plataformas a través de las cuales empresas y particulares acceden a Claude) emitieran, de forma independiente, declaraciones legales rigurosas a sus usuarios en las que se afirmaba que la designación de riesgo para la cadena de suministro del Pentágono contra Anthropic se aplica únicamente a sus contratos federales y no afecta al acceso a través de sus plataformas para cargas de trabajo no relacionadas con la defensa.

La designación (el mismo instrumento aplicado a Huawei y a los contratistas militares chinos) se utilizó, por primera vez, contra una empresa nacional. Su radio de acción se extendió mucho más allá de los contratos federales de Anthropic, poniendo en peligro las relaciones con contratistas, subcontratistas y clientes empresariales de toda la economía. Un período de desmantelamiento de seis meses exigiría que todos los contratistas del Pentágono certificaran que no utilizaban Claude en ningún flujo de trabajo.

El detonante fue la negativa de Anthropic a cruzar las mismas dos líneas que Kalinowski citó en su renuncia. La respuesta del gobierno fue su arma regulatoria más poderosa. Días después, el ejército estadounidense utilizó a Claude durante operaciones activas en Irán, realizando evaluaciones de inteligencia y simulacros de combate durante los ataques.

El 9 de marzo, Anthropic presentó dos demandas federales —una en el Distrito Norte de California y otra en la corte de Apelaciones del Circuito de D.C.— impugnando la designación por motivos constitucionales y legales.

El episodio, como confirman las últimas renuncias y las declaraciones de las plataformas, no está resuelto.

La confrontación, en última instancia, plantea una pregunta más amplia: si la conciencia corporativa es una carga o una salvaguardia necesaria en una sociedad sana.

Historias relacionadas

OpenAI llega a un acuerdo con el Pentágono para implementar modelos de IA en una red clasificada

OpenAI llega a un acuerdo con el Pentágono para implementar modelos de IA en una red clasificada
 

Cuando la "legalidad" ya no es suficiente

La disputa entre Anthropic y el Pentágono no giraba en torno a la legalidad de lo que solicitaba el gobierno. No se estaba infringiendo ninguna ley. Las dos líneas rojas que Anthropic trazó no eran conclusiones legales, sino morales, y lo que está en juego en cada una merece ser explicado con claridad.

La primera se refería a la vigilancia doméstica. El historial de ubicación, los registros de compras, los patrones de navegación y las conexiones sociales se pueden adquirir legalmente a intermediarios de datos comerciales. La IA elimina la última limitación práctica para recopilarlos: el tiempo, el costo y la mano de obra que antes hacían que la vigilancia masiva de toda una población fuera prohibitivamente cara. Lo que requería un aparato estatal totalitario en el siglo XX —la vigilancia sistemática de los movimientos, las asociaciones y el comportamiento de cada ciudadano— ahora puede lograrse con un contrato y un modelo competente. La negativa de Anthropic reconoció una realidad simple: la libertad siempre ha dependido menos de lo que la ley permite que de lo que el Estado es capaz de hacer. Cuando esa capacidad se expande enormemente de la noche a la mañana, los marcos legales creados para una era tecnológica anterior ya no pueden servir como guardianes fiables de la libertad que se suponía debían proteger.

La segunda se refería a las armas autónomas: máquinas que identifican y eliminan objetivos humanos sin una decisión humana en la cadena. La objeción aquí no es de procedimiento. Delegar la decisión de quitar una vida humana a un algoritmo elimina la única restricción que históricamente ha limitado el uso de la fuerza letal: el juicio humano, la vacilación humana y la responsabilidad humana. Un soldado que dispara responde a una cadena de mando, a un marco legal y, en última instancia, a una conciencia. Un sistema autónomo responde únicamente a sus datos de entrenamiento y a su función objetivo. Cuando se despliegan a gran escala, estos sistemas no solo cambian la forma en que se libran las guerras. Cambian el umbral en el que comienzan las guerras y la escala a la que la violencia puede desarrollarse antes de que alguien rinda cuentas. La postura de Anthropic era que desarrollar dicha capacidad, independientemente de que sea legal, cruza una línea que ningún cálculo comercial puede justificar.

La postura del Pentágono era que, si algo es legal entonces es aceptable. Esa brecha —entre lo que la ley permite y las consecuencias de permitirlo— es precisamente la cuestión que Anthropic se negó a que se resolviera mediante contrato.

El Desglose

La confrontación no comenzó en marzo. El 3 de enero, el ejército estadounidense utilizó a Claude durante la operación de captura de Maduro en Venezuela, desplegado a través de la colaboración de Anthropic con Palantir Technologies en las redes clasificadas del Pentágono.

Cuando surgieron informes de que Claude había sido utilizado en la operación en Venezuela, una investigación sobre cómo se había producido el despliegue desencadenó lo que las fuentes describieron como una ruptura en la relación de Anthropic con el Pentágono. Un alto funcionario de la administración declaró a Axios que el Pentágono reevaluaría su colaboración: "Cualquier empresa que ponga en peligro el éxito operativo de nuestros combatientes en el terreno es una que debemos reevaluar".

Anthropic no encontró ninguna violación de políticas en el despliegue en Venezuela. El hecho de hacer preguntas, quienquiera que las hiciera, se convirtió en el problema en la respuesta del Pentágono.

Cuando se produjeron los ataques a Irán semanas después, el ejército volvió a recurrir a Claude. El producto que el gobierno no podía contratar siguió siendo el producto del que no podía prescindir.

El camino que siguen la mayoría de las empresas

La respuesta de OpenAI a la misma situación es ilustrativa, no por cínica, sino porque describe cómo la mayoría de las instituciones gestionan la tensión entre la supervivencia comercial y las restricciones éticas.

Horas después de la designación de Anthropic, OpenAI anunció un acuerdo con el Pentágono. Sam Altman declaró que su empresa tenía límites idénticos. Para la semana siguiente, esos límites se habían modificado. Altman reconoció que el acuerdo fue "definitivamente apresurado" y "parecía oportunista y descuidado". OpenAI renegoció, añadiendo prohibiciones de vigilancia nacional que no figuraban en el acuerdo original.

Luego, en la Conferencia de Tecnología de Morgan Stanley, Altman adoptó una postura más firme. Argumentó que es "malo para la sociedad" que las empresas abandonen su compromiso con el proceso democrático y concluyó: "Se supone que el gobierno es más poderoso que las empresas privadas". El público de inversores institucionales no discrepó visiblemente.

La afirmación no carece de lógica. Los gobiernos democráticos derivan su autoridad del pueblo y, en ese sentido formal, tienen mayor jerarquía que las entidades privadas. Pero el principio, tal como lo planteó Altman, no contiene ninguna condición limitante: no explica qué sucede cuando los gobiernos se equivocan, están dominados o actúan más allá de los límites que sus ciudadanos pretendían.

El cumplimiento, presentado como virtud cívica, puede ser una estrategia empresarial disfrazada de una sola.

Google organizó su cultura corporativa en torno a un estándar de tres palabras: no seas malvado. La frase fue finalmente eliminada de su código de conducta, no mediante un cambio de política anunciado, sino mediante una revisión discreta. No se ofreció ninguna explicación. La eliminación se observó principalmente en retrospectiva.

La postura cómoda para cualquier gran empresa es externalizar la carga de la conciencia al Estado y centrarse en el cumplimiento. Esta es una estrategia coherente. También es, históricamente, la forma en que los límites del poder estatal tienden a expandirse, no solo mediante las decisiones de los gobiernos, sino mediante la acumulación de decisiones de las instituciones que los sirven.

La conciencia, sin embargo, ha desempeñado históricamente otra función en las sociedades libres: a menudo es la primera línea de defensa cuando la ley aún no ha alcanzado el poder que la tecnología hace posible

Lo que registró el mercado

La reacción del mercado sugirió que la conciencia corporativa no siempre conlleva una penalización comercial-

Claude alcanzó el número uno en la App Store de Apple el 28 de febrero y el número uno en Google Play el 3 de marzo. Los usuarios gratuitos crecieron más del 60 por ciento desde enero. Las suscripciones diarias se triplicaron desde noviembre. Las desinstalaciones de ChatGPT aumentaron un 295 por ciento el sábado siguiente a la designación. Los servidores de Claude colapsaron debido al volumen.

La respuesta institucional fue igualmente reveladora. Las tres plataformas de nube más grandes revisaron el lenguaje de la designación de forma independiente y llegaron a la misma conclusión legal: la designación de riesgo para la cadena de suministro no se extiende a sus clientes empresariales. Un instrumento regulatorio históricamente reservado para adversarios extranjeros se había utilizado contra una empresa nacional, y la infraestructura de la que depende esa empresa se negó a tratarlo como tal.

Sobre el hábito de confiar en los gobiernos

La tradición constitucional estadounidense ofrece protecciones que hacen que la situación actual sea categóricamente diferente de lo que sucede cuando los gobiernos ejercen un poder regulatorio sin control. Esas distinciones son de suma importancia, y vale la pena defenderlas precisamente porque no todas las sociedades tienen nada que perder. En octubre de 2020, Jack Ma, fundador de Alibaba, pronunció un discurso en una conferencia financiera en Shanghái criticando la postura conservadora de los reguladores financieros de Beijing. Días después, las autoridades chinas cancelaron la oferta pública inicial de Ant Group, la filial fintech de Ma. Lo que habría sido la mayor oferta pública inicial del mundo, valorada en 37,000 millones de dólares, se detuvo sin previo aviso. Posteriormente, Alibaba recibió una multa antimonopolio de 2750 millones de dólares. Durante los años siguientes, se eliminaron cientos de miles de millones de dólares del valor de mercado de Alibaba. El mecanismo fue regulatorio. El detonante fue un discurso.

A diferencia de Beijing, el sistema estadounidense está diseñado para la autocorrección. Las cortes estadounidenses mantienen su independencia, la designación fue impugnada, y el público y las plataformas en la nube tienen la libertad de negarse a cooperar.

Lord Acton abordó el problema subyacente en una carta de 1887 al obispo Creighton: "El poder tiende a corromper, y el poder absoluto corrompe absolutamente".

El argumento de Acton era simple pero perdurable: las instituciones solo se mantienen sanas cuando se espera que quienes ostentan el poder respondan a los mismos límites morales que los demás.

La implicación práctica no es que los gobiernos sean malévolos, sino que no se les debe extender la presunción de buena fe que, según Acton, los historiadores habían concedido erróneamente a papas y reyes. La tradición constitucional estadounidense internalizó este escepticismo estructuralmente: en la separación de poderes, la Declaración de Derechos y la independencia judicial.

Una sociedad que externaliza la conciencia por completo al Estado —en la que ninguna institución privada conserva la capacidad de decir no y pagar un precio que permita sobrevivir— no es una sociedad más fuerte por haber simplificado el sistema. Es una sociedad más frágil.

Altman tiene razón en que los gobiernos suelen ser más poderosos que las empresas privadas. Lo que esta observación no resuelve es si los gobiernos deberían ser también los únicos guardianes de la conciencia en sus tratos con dichas empresas. Sobre esta cuestión, la tradición estadounidense siempre ha tenido una respuesta diferente.

Manteniendo la línea por el resto de nosotros

Lo que hizo Anthropic fue mantener una postura que beneficia al público, mientras que este no tenía medios directos para mantenerla.

En ese sentido, la empresa mantuvo la línea no solo para sí misma, sino también para otros que algún día podrían enfrentarse a la misma demanda: empresas, instituciones e individuos cuya capacidad de decir no depende de si tales negativas siguen siendo viables.

La arquitectura de vigilancia que el Pentágono pretendía construir no desaparecerá por una sola negativa. Pero lo que la decisión de Anthropic produjo es algo más modesto y quizás más importante: un registro público.

Se trazó una línea. Se dio una razón. Se aceptó un costo. Y otros —un ejecutivo que dimitió, ingenieros que protestaron, millones de usuarios— demostraron que la conciencia rara vez está sola.

Y el principio más amplio puede ser aún más simple: una sociedad sana depende de personas, corporaciones e instituciones capaces de mantener sus límites cuando la conciencia lo exige.

Las opiniones expresadas en este artículo son las del autor y no reflejan necesariamente las opiniones de The Epoch Times.


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
ÚLTIMAS NOTICIAS