Señales que no deberíamos ignorar sobre la inteligencia artificial

La aplicación ChatGPT de OpenAI se muestra en un teléfono celular el 3 de marzo de 2026 en Chicago, Illinois. OpenAI reformuló un acuerdo con el Pentágono que regula el uso de sus servicios de IA por parte del Departamento de Defensa tras la preocupación de que el ejército utilizara los sistemas de OpenAI para vigilancia doméstica. (Foto de Scott Olson/Getty Images)

La aplicación ChatGPT de OpenAI se muestra en un teléfono celular el 3 de marzo de 2026 en Chicago, Illinois. OpenAI reformuló un acuerdo con el Pentágono que regula el uso de sus servicios de IA por parte del Departamento de Defensa tras la preocupación de que el ejército utilizara los sistemas de OpenAI para vigilancia doméstica. (Foto de Scott Olson/Getty Images)

12 de marzo de 2026, 10:09 p. m.
| Actualizado el12 de marzo de 2026, 10:12 p. m.

Comentario

Hace unos días ocurrió algo que la mayoría de la gente pasó por alto. Dos centros de datos de Amazon en los Emiratos Árabes Unidos fueron atacados durante la represalia de Irán a la acción militar estadounidense. Se informó que otra instalación en Baréin resultó dañada tras el aterrizaje de un dron en las cercanías. Se dice que los ataques anteriores que desencadenaron la represalia utilizaron sistemas de puntería asistidos por IA.

Fue un momento breve en el ciclo informativo, rápidamente eclipsado por la siguiente noticia política. Pero sus implicaciones son difíciles de ignorar.

La inteligencia artificial ahora ha entrado en el conflicto geopolítico activo.

La infraestructura que impulsa el mundo digital —los mismos sistemas que almacenan fotos familiares, gestionan negocios y responden preguntas en nuestros teléfonos— se ha convertido en una infraestructura estratégica en tiempos de guerra. Algoritmos integrados discretamente en la tecnología civil ayudan ahora a guiar las decisiones sobre dónde aterrizan las armas.

La humanidad cruzó un umbral, y la mayoría de nosotros lo traspasamos.

Pero sabemos por la historia que los grandes cambios tecnológicos rara vez se anuncian con un solo momento dramático. Aparecen primero como señales en pequeñas noticias, disputas políticas y salidas inexplicables de personas con información privilegiada.

Casi al mismo tiempo apareció otra señal.

El gobierno federal retiró recientemente de sus redes los sistemas de inteligencia artificial desarrollados por Anthropic. Poco después, OpenAI intervino con su propio acuerdo de defensa.

Historias relacionadas

¿Por qué el Pentágono ve riesgos en Anthropic? Contratos buscan control humano sobre la IA letal

¿Por qué el Pentágono ve riesgos en Anthropic? Contratos buscan control humano sobre la IA letal

El público desconoce la historia completa detrás del cambio. Desconocemos con exactitud qué demandas se hicieron a puerta cerrada, qué restricciones éticas se cuestionaron o por qué una de las principales empresas de inteligencia artificial del mundo fue expulsada repentinamente de los sistemas federales.

Pero el episodio en sí es otra señal.

Y otra señal ha estado apareciendo silenciosamente dentro de la propia industria de la IA: la salida de los investigadores de seguridad.

Historias relacionadas

Creó el primer chatbot y luego dedicó su vida a advertir al mundo sobre la IA

Creó el primer chatbot y luego dedicó su vida a advertir al mundo sobre la IA

En los últimos años numerosos investigadores de alto perfil encargados de estudiar los riesgos y la seguridad de los sistemas avanzados de la IA han dejado sus puestos en importantes empresas y laboratorios de investigación. Muchas de estas salidas se han producido sin apenas explicación pública.

Esos investigadores rara vez describen los debates internos de los que fueron testigos. Pocos están en condiciones de hacerlo.

Pero patrones como este importan. Cuando las personas más cercanas a una tecnología poderosa comienzan a alejarse discretamente, a menudo significa que han presenciado tensiones que el público aún no ha sido invitado a analizar.

La historia ya ha visto antes momentos como éste.

A principios de la década de 1940, los científicos que trabajaban en lo que se convertiría en el Proyecto Manhattan se dieron cuenta de que estaban construyendo algo sin precedentes. Algunos expresaron su preocupación por las posibles implicaciones de la tecnología una vez que saliera del laboratorio. Pero esos debates se produjeron en gran medida a puerta cerrada. El público comprendió lo que estaba en juego solo después de que la tecnología ya había sido utilizada.

La inteligencia artificial podría estar evolucionando según un patrón similar. Ya estamos viendo las señales: investigadores que se van, gobiernos que cuestionan las barreras éticas y sistemas de IA que aparecen en medio de conflictos geopolíticos reales.

Historias relacionadas

Hackers chinos utilizaron IA para atacar a 30 organizaciones, según Anthropic

Hackers chinos utilizaron IA para atacar a 30 organizaciones, según Anthropic
Sin embargo, la conversación pública sobre la inteligencia artificial todavía está determinada por un conjunto de suposiciones que hacen que estas señales sean más difíciles de reconocer.

Mito 1: La IA es "solo una herramienta"

Esta analogía es reconfortante. Imaginamos la IA como imaginamos una calculadora o un procesador de texto: máquinas que realizan tareas eficientemente mientras permanecen bajo el firme control humano.

Las herramientas pueden convertirse en activos estratégicos en la guerra. Pero no generan sus propios resultados de maneras que a sus creadores a veces les cuesta explicar, ni requieren una negociación constante sobre los límites éticos de su comportamiento.

Los sistemas modernos de IA no se programan línea por línea en el sentido tradicional. Se entrenan con grandes conjuntos de datos y aprenden patrones dentro de ellos. Su comportamiento surge de relaciones estadísticas, no de instrucciones explícitas. Los investigadores de IA describen estos sistemas como "desarrollados", no construidos. Y eso los diferencia fundamentalmente de las herramientas que estamos acostumbrados a controlar.

Mito 2: La IA es neutral

Los sistemas de IA se entrenan con información generada por humanos. Esta información refleja sesgos humanos, conflictos históricos y una representación desigual.

Cuando un sistema de IA genera una respuesta, sintetiza patrones que absorbió de ese material.

La IA ha desarrollado habilidades lingüísticas fluidas que pueden crear la ilusión de objetividad. Pero un lenguaje seguro no es lo mismo que la verdad.

Las recientes disputas entre gobiernos y empresas de IA lo ilustran claramente. Los debates sobre los límites de la vigilancia o las armas autónomas no son simplemente cuestiones técnicas. Son cuestiones morales. Las barreras de seguridad existen precisamente porque los sistemas en sí mismos no son neutrales.

Mito 3: Los humanos controlan completamente a la IA

El software tradicional se comporta de acuerdo con instrucciones explícitas escritas por los programadores.

Los sistemas modernos de IA funcionan de forma diferente. Sus resultados son probabilísticos y se generan mediante capas de relaciones aprendidas dentro del modelo.

Los desarrolladores ahora utilizan sistemas de IA para crear y gestionar otros sistemas. Usan IA para escribir código que antes habrían escrito ellos mismos, y el proceso es tan rápido que no pueden supervisar y ni siquiera comprender cada línea de código generada por sistemas que no están en reposo.

En este entorno, el control no es un interruptor. Es más bien un límite móvil nunca visto, y el lenguaje para definirlo aún está en sus inicios.

Historias relacionadas

OpenAI recibe siete demandas por presuntamente incitar al suicidio a usuarios de ChatGPT

OpenAI recibe siete demandas por presuntamente incitar al suicidio a usuarios de ChatGPT
 

Mito 4: Los expertos saben adónde va esto

En la mayoría de los campos científicos, los expertos discrepan dentro de un rango bastante estrecho. En inteligencia artificial, el espectro de opiniones es inusualmente amplio.

Algunos investigadores creen que la IA revolucionará la medicina y los descubrimientos científicos. Otros advierten que la tecnología podría causar graves trastornos sociales si el desarrollo supera la sabiduría humana.

Entre quienes expresan estas preocupaciones se encuentra Geoffrey Hinton, premio Nobel y una de las figuras fundamentales de la investigación moderna en inteligencia artificial.

Esa diversidad de opiniones no demuestra que se avecina un desastre. Pero sí revela que incluso quienes construyen estos sistemas no están del todo de acuerdo sobre a dónde conducen.

La inteligencia artificial se está integrando rápidamente en los sistemas que dan forma a la vida moderna: la comunicación, el comercio, la seguridad nacional y la gobernanza.

Historias relacionadas

China amplía sus campañas encubiertas de IA para infiltrarse profundamente en las democracias: analistas

China amplía sus campañas encubiertas de IA para infiltrarse profundamente en las democracias: analistas

Estamos viendo señales en todos estos ámbitos. Vemos claramente que la IA está moldeando nuestro futuro, nos guste o no. La pregunta es si reconoceremos las señales a tiempo para comprender lo que está sucediendo o si esperaremos, como suelen hacer las sociedades, hasta que las consecuencias hagan que las señales sean imposibles de ignorar.

Las opiniones expresadas en este artículo son las del autor y no reflejan necesariamente las opiniones de The Epoch Times


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
ÚLTIMAS NOTICIAS