Esta es una entrega de una serie de seis partes que analiza cómo el régimen chino lleva a cabo sus operaciones de influencia modernas. Lee la segunda parte aquí.
Opinión:
Un martes por la noche, en una habitación de una residencia de estudiantes, un joven abre TikTok para darse un "descanso de cinco minutos". El primer video es un montaje de escombros y sirenas. El segundo es un video explicativo al estilo de un profesor, con subtítulos bien redactados, que ofrece una única conclusión moral. El tercero es un video grabado con el móvil, con imagen temblorosa, de un enfrentamiento en otro campus: gritos, luces de policía, una multitud que se agita como si fuera una tormenta.
El estudiante no buscó nada de eso. Ni siquiera sigue esas cuentas. El feed le llega con la certeza de lo que importa.
Esta es la tecnología política de nuestro tiempo: el sistema que decide —miles de veces al día— lo que verás a continuación.
La pila de influencia
Durante la mayor parte del siglo pasado, la influencia significaba difundir. Se compraba un periódico, se emitía un anuncio de radio, se imprimían folletos, se debatía en la plaza del pueblo. La retroalimentación era lenta, indirecta y cara.Hoy en día, la influencia funciona de otra manera. Se trata de la microsegmentación, de averiguar a qué segmento de la población dirigirse. Se trata de la distribución de recomendaciones, de determinar qué mostrar al grupo objetivo y en qué orden. Se trata de la medición de los efectos: tiempo de visualización, repeticiones, vacilación al desplazarse, comentarios, comparticiones. Y se trata de la iteración, de ajustar rápidamente lo que funciona y descartar lo que no.
La microsegmentación no comenzó con TikTok
La microsegmentación es más antigua que el feed de los smartphones. Las campañas llevan mucho tiempo fusionando los archivos de votantes con datos demográficos y de consumo, para luego adaptar los mensajes a segmentos específicos. Lo que cambió, especialmente a principios de la década de 2010, fue el ritmo: la capacidad de ver qué funciona mientras el momento aún se está desarrollando.La operación digital de la campaña de Obama en 2012 ofrece un puente útil entre el mundo anterior y el actual. Sus equipos observaban el comportamiento en la web casi en tiempo real y lo utilizaban para dar una respuesta rápida. Durante un debate presidencial, cuando el entonces gobernador de Massachusetts, Mitt Romney, dijo "carpetas llenas de mujeres", la campaña compró inmediatamente anuncios de búsqueda basados en esa frase y enlazados a una ficha informativa; el responsable digital de la campaña describió un "aumento inmediato tanto en el tráfico como en la interacción" por parte de los usuarios que buscaban ese término.
Eso no es TikTok. Sigue siendo la web abierta: búsquedas, anuncios, páginas de destino. Pero el cambio muestra una nueva lógica: observar el comportamiento a medida que ocurre y, a continuación, redirigir la atención antes de que la historia pierda fuerza. Hay que aprovechar la oportunidad mientras el hierro está caliente.
Las plataformas algorítmicas industrializan ese ciclo. La microsegmentación no se trata de "quién recibe qué correo". Se convierte en un sistema en vivo, vinculado a la distribución y la retroalimentación. A diferentes grupos demográficos se les pueden mostrar versiones específicas de la misma realidad, y el sistema aprende —a gran escala— cómo responde cada grupo.
Y la "respuesta" no requiere un acuerdo explícito. Puede ser atención, excitación y volatilidad: dos segundos extra de tiempo de visualización, un nuevo visionado, un comentario escrito con ira y publicado, un compartir en un chat grupal.
Los sistemas de clasificación no solo reflejan las preferencias; las moldean
No tenemos que adivinar si la clasificación cambia lo que la gente ve. Los investigadores lo han comprobado dentro de las plataformas.Un estudio a gran escala publicado en las Actas de la Academia Nacional de Ciencias de Estados Unidos de América (PNAS) se basó en un "experimento aleatorio a gran escala" en X, entonces conocido como Twitter, que asignó a un grupo de control aleatorio —casi 2 millones de cuentas activas diarias— un feed cronológico inverso "sin personalización algorítmica", precisamente para poder medir los efectos de la clasificación. Los autores informaron de diferencias cuantificables en la "amplificación algorítmica" entre los actores políticos de varios países.
El icono de la aplicación de Twitter en un teléfono móvil en Filadelfia, el 26 de abril de 2017. (Matt Rourke/AP Photo).Ahí está la clave: el posicionamiento es una intervención. Cuando un sistema ordena los contenidos, decide qué destaca, qué resulta familiar para determinados grupos, qué parece urgente y qué pasa a un segundo plano. El poder político puede surgir incluso cuando nadie redacta un manifiesto dentro de la empresa. El feed condiciona al usuario. Es un entorno, y los entornos moldean el comportamiento.
Medición: el poder oculto es el panel de control
La pila de influencia se alimenta de paneles de control.Una emisora puede saber semanas después si un mensaje ha calado. Una plataforma sabe en cuestión de minutos si un clip ha aumentado la retención entre los jóvenes de 19 años en un lugar específico, a una hora determinada, tras una secuencia estratégicamente establecida de videos previos.
Esto crea una capacidad de persuasión para la que las instituciones más antiguas no fueron diseñadas: la experimentación rápida con la atención humana. El contenido se convierte en una hipótesis. La audiencia se convierte en un laboratorio viviente. El sistema conserva lo que funciona.
Por qué la ira triunfa dentro del bucle
Una dura realidad sobre la pila de influencia es que no todas las emociones la atraviesan con la misma facilidad. Las emociones de alta excitación se mueven más rápido porque impulsan la acción.En un estudio histórico sobre el intercambio de contenidos, Jonah Berger y Katherine Milkman descubrieron que la viralidad está vinculada a la excitación fisiológica. El contenido que evoca emociones de alta excitación, como la ira y la ansiedad, tiene más probabilidades de difundirse que el que evoca emociones de baja excitación, como la tristeza.
La política añade otro acelerador: la emoción moral. Un estudio de PNAS que analizó grandes conjuntos de datos de debates en redes sociales descubrió que el lenguaje moral-emocional aumenta la difusión. En su muestra, cada palabra moral-emocional adicional en un mensaje se asoció con un aumento sustancial en el intercambio.
Y la ira tiene ventajas particulares en entornos en red. Un análisis computacional de Weibo reveló que la ira es más "contagiosa" que la alegría y más capaz de propagarse a través de vínculos sociales más débiles, lo que significa que puede traspasar un grupo muy unido y extenderse a comunidades más amplias.
Iteración: cómo los temas de conversación regresan como temas optimizados
Y luego está el viejo truco de la radiodifusión —la frase repetida, el eslogan, el tema de conversación— reapareciendo con un nuevo ropaje.En los informativos de televisión, la tematización funcionaba porque la repetición hace que las ideas parezcan comunes. En la pila de influencia, el sistema prueba variaciones. Supervisa la curva de retención, observa la velocidad de difusión y la intensidad de los comentarios. Las frases que sobreviven son las que viajan y se consolidan en eslóganes que parecen estar "en todas partes" porque la plataforma ha aprendido exactamente dónde está ese "en todas partes".
El problema de la verificación
Un segundo hecho político de la pila de influencia es que a los ajenos al sistema les cuesta verificar lo que está sucediendo en tiempo real.Qué hará esta serie
En las próximas entregas, iremos ascendiendo por la pila.Examinaremos el reconocimiento de emociones y por qué incluso una inferencia afectiva defectuosa puede ser peligrosa cuando las instituciones tratan los resultados como verdad. Analizaremos el modelo operativo de China —resolución de identidad más cobertura de sensores más fusión de datos— y por qué la arquitectura importa más que cualquier sensor individual. Trataremos a TikTok como una capa de distribución donde la iteración es rápida y la verificación es difícil. A continuación, aplicaremos el marco a un caso de prueba que vivieron los estadounidenses: el auge de las dinámicas de protesta en los campus durante la guerra de Gaza, lo que podemos medir y lo que no podemos afirmar de forma responsable.
No se trata de reducir la convicción política genuina a "fue culpa del algoritmo". La gente protesta por razones reales. Las instituciones fracasan por razones reales. Pero en un mundo donde la atención es programable, resulta imprudente fingir que el feed es solo entretenimiento.
La pila de influencia no sustituye a la política. Cambia la temperatura a la que se desarrolla la política.
Y una vez que lo ves, la pregunta deja de ser si un solo video "causó" algo. La pregunta pasa a ser: ¿quién controla el termostato y quién puede auditarlo?
Lee la segunda parte aquí.
Las opiniones expresadas en este artículo son del autor y no reflejan necesariamente las de The Epoch Times.
















