Mientras el Pentágono se apresura a implementar la IA, los retos operativos resaltan los riesgos

Los expertos en defensa afirman que la IA es esencial en la guerra, pero que conlleva éxitos dispares y dificultades impredecibles

Un soldado estadounidense sostiene un dron en el estacionamiento del Pentágono, en Arlington, Virginia, el 14 de junio de 2025. (Samuel Corum/Getty Images)

Un soldado estadounidense sostiene un dron en el estacionamiento del Pentágono, en Arlington, Virginia, el 14 de junio de 2025. (Samuel Corum/Getty Images)

20 de febrero de 2026, 12:42 a. m.
| Actualizado el20 de febrero de 2026, 12:42 a. m.

La inteligencia artificial (IA) se suele presentar como un multiplicador de fuerzas que puede acelerar la toma de decisiones y generar información valiosa. Mientras tanto, los ejercicios de implementación de la IA han arrojado resultados dispares, lo que pone de relieve retos como el bloqueo de los sistemas y el software impredecible fuera de entornos controlados.

Algunos expertos en defensa creen que las herramientas de IA también introducen nuevos riesgos de seguridad y escalada si no se desarrollan, evalúan y entrenan correctamente.

Durante el último año, las pruebas militares estadounidenses han demostrado que algunos sistemas de IA están fallando sobre el terreno. En mayo de 2025, Anduril Industries colaboró con la Marina de Estados Unidos en el lanzamiento de 30 barcos drones con IA, todos los cuales acabaron atascados en el agua después de que los sistemas rechazaran sus señales.

En agosto de 2025 se produjo un contratiempo similar durante la prueba del sistema antidrones Anvil de la empresa. El fallo mecánico resultante provocó un incendio de 22 acres en Oregón, según un informe del Wall Street Journal.

Historias relacionadas

El Pentágono adjudica contratos a cuatro desarrolladores de inteligencia artificial

El Pentágono adjudica contratos a cuatro desarrolladores de inteligencia artificial

Anduril respondió a los fallos de las pruebas de IA denunciados, calificándolos como "un pequeño puñado de supuestos contratiempos en los eventos de experimentación, prueba e integración del Gobierno".

"La tecnología de defensa moderna surge a través de pruebas incesantes, iteraciones rápidas y una asunción de riesgos disciplinada", afirmó Anduril en su sitio web. "Los sistemas se rompen. El software se bloquea. El hardware falla bajo presión. Encontrar estos fallos en entornos controlados es el objetivo".

Pero hay quien dice que los retos a los que se enfrenta la IA en el ámbito de la seguridad nacional no deben tomarse a la ligera. Problemas como la fragilidad de los modelos de IA y el uso de datos de entrenamiento inadecuados pueden dar lugar a sistemas que no funcionan como se espera en un escenario de combate.

"Por eso es fundamental contar con una IA de grado militar, diseñada específicamente para casos de uso relacionados con la seguridad nacional y los combatientes", declaró Tyler Saltsman, fundador de EdgeRunner AI, a The Epoch Times.

La empresa de Saltsman tiene contratos activos de investigación y desarrollo con el ejército estadounidense. Según él, los sistemas de IA no suelen estar diseñados para la guerra.

"[Los modelos de IA] pueden optar por rechazar o desviar ciertas preguntas o tareas si esas solicitudes no cumplen con las propias reglas del sistema de IA", dijo Saltsman. "Un modelo que se niegue a proporcionar orientación a un soldado en combate o que dé respuestas sesgadas en lugar de respuestas operativamente relevantes puede tener implicaciones de vida o muerte".

Escenarios como el que describe Saltsman pueden comenzar con un tipo de datos de entrenamiento incorrecto.

Un sargento del Ejército de Estados Unidos maneja un sistema aéreo no tripulado Anduril Ghost X durante el ejercicio Balikatan 25 en Itbayat, Filipinas, el 22 de abril de 2025. Aunque la inteligencia artificial se suele presentar como un multiplicador de fuerzas, los ejercicios de despliegue han dado resultados dispares, incluyendo bloqueos del sistema y un rendimiento impredecible del software fuera de entornos controlados. (Soldado de primera clase Peter Bannister/Ejército de Estados Unidos)Un sargento del Ejército de Estados Unidos maneja un sistema aéreo no tripulado Anduril Ghost X durante el ejercicio Balikatan 25 en Itbayat, Filipinas, el 22 de abril de 2025. Aunque la inteligencia artificial se suele presentar como un multiplicador de fuerzas, los ejercicios de despliegue han dado resultados dispares, incluyendo bloqueos del sistema y un rendimiento impredecible del software fuera de entornos controlados. (Soldado de primera clase Peter Bannister/Ejército de Estados Unidos)

El dilema de los datos

Jeff Stollman, que ha trabajado con contratistas de defensa como consultor independiente y está familiarizado con una amplia gama de productos y servicios utilizados por las comunidades militar y de inteligencia, dijo que gran parte de "los datos necesarios no se han recopilado históricamente".

"Y debido a que los datos de Internet suelen tener un valor limitado y los modelos basados en Internet no pueden ejecutarse en redes clasificadas aisladas, los usuarios militares y de inteligencia tendrán que recopilar sus propios datos nuevos", dijo Stollman a The Epoch Times.

Afirmó que hay tres categorías de datos de entrenamiento utilizados por las comunidades de defensa y las fuerzas armadas, todas ellas con diferentes obstáculos.

Stollman puso como ejemplo un reto relacionado con los datos de mantenimiento y dijo que la recopilación de este tipo de información suele requerir la adición de sensores que puedan registrar los datos necesarios para predecir averías y fallos.

"Esto incluye medir la temperatura, la vibración, la fricción y el desgaste de varias piezas", dijo. "Se trata de una tarea costosa. Los sensores no son gratuitos. Añaden peso y volumen a plataformas con limitaciones de espacio y peso, como aviones y naves espaciales".

Este tipo de recopilación de datos se descarga en una base de datos debido a los limitados recursos informáticos a bordo. Aunque a primera vista esto parece lógico, el problema es el tiempo que puede llevar.

"En el caso de plataformas como barcos y submarinos, las ventanas para la transmisión de dichos datos, que podrían revelar la posición de la plataforma, son limitadas", explica Stollman. "Como resultado, es posible que no se pueda acceder a los datos durante meses".

Un dron de un sistema basado en IA durante una presentación en Eberswalde, Alemania, el 27 de marzo de 2025. (Ralf Hirschberger/AFP a través de Getty Images)Un dron de un sistema basado en IA durante una presentación en Eberswalde, Alemania, el 27 de marzo de 2025. (Ralf Hirschberger/AFP a través de Getty Images)

Otro reto de la integración de la IA es la fiabilidad. Problemas como las "alucinaciones" de la IA y las decisiones erróneas pueden amplificarse en entornos hostiles.

"La suposición más peligrosa es que la IA no pueda distinguir entre entradas legítimas y manipulaciones hostiles", declaró Christopher Trocola, fundador de ARC Defense Systems, a The Epoch Times.

Citó el experimento de julio de 2025 en el que el "vibe coding" de la plataforma Replit, basada en la nube y alimentada por IA, terminó con un asistente de IA entrando en pánico e intentando borrar sus huellas. Según se informa, el asistente de codificación de IA borró una base de datos de producción en vivo, fabricó miles de registros falsos y creó mensajes de estado engañosos.

"Las aplicaciones militares amplifican estas vulnerabilidades de forma catastrófica", afirmó Trocola.

Explicó que tres supuestos críticos de la IA pueden fallar bajo presión adversaria: La resistencia a la inyección rápida, el control de las alucinaciones y el reconocimiento de intenciones.

Esto ocurre cuando los adversarios pueden manipular la IA mediante entradas cuidadosamente diseñadas para anular instrucciones, generar información falsa o indicar que las entradas maliciosas son benignas.

"Esto representa lo que se conoce como cambio de distribución: La IA entrenada en entornos controlados falla catastróficamente cuando se despliega en contextos adversarios del mundo real", afirmó Trocola.

Saltsman afirmó que esto pone de relieve la importancia de crear modelos de IA teniendo en cuenta las aplicaciones militares.

"La mayoría de los sistemas de IA comerciales son cajas negras", afirmó. "No sabemos con qué datos se han entrenado los modelos. No sabemos qué barreras de seguridad o sesgos se han incorporado a los modelos. Y no sabemos si nuestros datos están realmente seguros. Todo esto es muy problemático en el ámbito de la seguridad nacional".

Evaluación de riesgos

Stollman señaló que la IA generativa, que ya se utiliza en los servicios de inteligencia y defensa de EE. UU., está "plagada" de problemas como las alucinaciones. Sin embargo, también es el tipo de IA más práctico para las operaciones militares.

"La IA generativa es útil en áreas como el reconocimiento, donde es necesario identificar instalaciones y actividades a partir de datos recopilados por diversos sensores: Fotos, radares, sonares, etc.", dijo Stollman. "También se puede utilizar para apoyar la toma de decisiones".

Un consultor imparte el Curso Avanzado de Mando de Inteligencia Artificial en la Base del Cuerpo de Marines de Camp Lejeune, en Carolina del Norte, el 12 de diciembre de 2025. (Lance Cpl. Payton Walley/Cuerpo de Marines de EE. UU.)Un consultor imparte el Curso Avanzado de Mando de Inteligencia Artificial en la Base del Cuerpo de Marines de Camp Lejeune, en Carolina del Norte, el 12 de diciembre de 2025. (Lance Cpl. Payton Walley/Cuerpo de Marines de EE. UU.)

"Por ejemplo, se podría dar autonomía de acción a los drones o misiles para superar el bloqueo de señales que impide su control remoto por parte de los seres humanos", dijo. "Pero antes de que se pueda implementar dicha autonomía, es necesario anticipar todos los modos de fallo que podrían conducir a consecuencias indeseables".

Saltsman dijo que está de acuerdo en que el desarrollo y la implementación de la IA deben equilibrarse cuidadosamente con una evaluación de riesgos a largo plazo.

"Pero no nos equivoquemos, estamos en una guerra de IA contra China y debemos ganar la carrera", afirmó.

Señaló que, si los modelos y el hardware de IA de China dominan el mercado, Estados Unidos podría llegar a depender de la nación asiática para tecnologías críticas.

"Por lo tanto, es imperativo para la seguridad nacional que aceleremos el ritmo del desarrollo de la IA, al tiempo que equilibramos los riesgos", afirmó Saltsman.

En 2025, las Naciones Unidas afirmaron que el uso de la IA en la guerra ya no era un escenario hipotético futuro. La ONU también destacó los riesgos y las consecuencias de los fallos del sistema de IA en este ámbito.

"Sin salvaguardias rigurosas, se corre el riesgo de socavar el derecho internacional humanitario", afirmó la agencia.

"Los campos de batalla complejos ya ponen a prueba el juicio humano a la hora de distinguir entre combatientes y civiles; para las máquinas, el reto es aún mayor, especialmente en entornos urbanos, donde los civiles y los combatientes suelen mezclarse".

El robot humanoide Iron de última generación de Xpeng habla con los medios de comunicación durante una visita a la sala de exposiciones de su sede en Guangzhou, provincia de Guangdong (China), el 5 de noviembre de 2025. Tyler Saltsman afirmó que, si los modelos y el hardware de IA de China dominan el mercado, Estados Unidos podría llegar a depender de la nación asiática para tecnologías críticas. (Jade Gao/AFP a través de Getty Images)El robot humanoide Iron de última generación de Xpeng habla con los medios de comunicación durante una visita a la sala de exposiciones de su sede en Guangzhou, provincia de Guangdong (China), el 5 de noviembre de 2025. Tyler Saltsman afirmó que, si los modelos y el hardware de IA de China dominan el mercado, Estados Unidos podría llegar a depender de la nación asiática para tecnologías críticas. (Jade Gao/AFP a través de Getty Images)

Trocola afirmó que comparte la preocupación con respecto a que el despliegue de la IA en los sectores militar y de defensa está superando a la evaluación de riesgos.

"Los patrones documentados sugieren que esto crea vulnerabilidades sistemáticas", afirmó. "Los datos del sector muestran que [entre el 70 % y el 80 %] de los proyectos de IA fracasan debido a las deficiencias en la preparación de las organizaciones".

El Departamento de Guerra lanzó en enero la Estrategia de Aceleración de la IA, que hace hincapié en el despliegue rápido para contrarrestar a los competidores estratégicos.

Trocola dijo que le preocupa que esta urgencia corra el riesgo de replicar patrones de fracaso comercial. Señaló que la mayoría de los líderes dan prioridad a la "velocidad de despliegue" sobre la "precisión del modelo". Esto tiene implicaciones peligrosas si los protocolos de seguridad no pueden seguir el ritmo de la velocidad de implementación de la IA.

"El reto no es ralentizar la innovación, sino garantizar que la implementación incluya marcos de gobernanza básicos que eviten los modos de fallo documentados", afirmó. "La ventaja estratégica proviene de una implementación fiable de la IA, no de una implementación apresurada que crea vulnerabilidades explotables por los adversarios".

La DiploFoundation compartió preocupaciones similares. El grupo de expertos afirmó que, a pesar de las ventajas que ofrece, como una mayor precisión, eficiencia y el potencial de reducción de riesgos para la vida humana, la IA introduce "riesgos desconocidos en las operaciones militares".

Un sargento del Ejército de Estados Unidos junto a un vehículo aéreo no tripulado (UAV) TRV-150 en Fort Stewart, Georgia, el 12 de febrero de 2026. El TRV-150 forma parte de una familia de drones destinados a mejorar la logística militar proporcionando capacidades de reabastecimiento rápido. (Sargento Anthony Herrera/Ejército de los Estados Unidos)Un sargento del Ejército de Estados Unidos junto a un vehículo aéreo no tripulado (UAV) TRV-150 en Fort Stewart, Georgia, el 12 de febrero de 2026. El TRV-150 forma parte de una familia de drones destinados a mejorar la logística militar proporcionando capacidades de reabastecimiento rápido. (Sargento Anthony Herrera/Ejército de los Estados Unidos)

Dos de los riesgos operativos más acuciantes identificados fueron la supuesta "caja negra", o resultados inexplicables en la toma de decisiones de la IA, y la falta de datos de calidad, lo que puede dar lugar a sesgos en los algoritmos.

Saltsman afirmó: "En un artículo de investigación que publicaremos próximamente, medimos las tasas de desviación y rechazo de los principales [modelos de lenguaje grandes] comerciales. Descubrimos que todos los [modelos de lenguaje grandes] comerciales tenían problemas, ya que rechazaban o desviaban ciertas preguntas relacionadas con el ámbito militar elaboradas por nuestros expertos militares en la materia".

"Este es un gran problema al que se enfrenta ahora el ejército", afirmó. "La IA comercial no es viable para muchos de los casos de uso más críticos para la seguridad nacional".

En diciembre de 2025, el Pentágono anunció que Gemini for Government de Google sería la "primera de varias capacidades de IA de vanguardia" que se alojaría en el modelo de lenguaje grande comercial del gigante tecnológico.

"El objetivo no es restringir la capacidad de la IA, sino garantizar una atribución fiable cuando los sistemas fallan", afirmó Trocola.

"Sin estos mecanismos, las barreras de seguridad actuales corren el riesgo de convertirse en un teatro de cumplimiento que crea una falsa confianza, mientras que las vulnerabilidades de inyección rápida y las capacidades de engaño siguen sin abordarse".


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
ÚLTIMAS NOTICIAS