Este es un segmento de una serie de seis partes que analiza cómo el régimen chino lleva a cabo sus operaciones de influencia modernas. Lea la primera parte aquí.
Opinión
Un responsable de contratación observa a un candidato responder a preguntas por videoconferencia. En una esquina de la pantalla, un widget muestra una evaluación en tiempo real: Comprometido, ansioso, evasivo. Al final del pasillo, un administrador promociona un software que promete detectar la "frustración" en los exámenes a distancia. En un aeropuerto, un proveedor dijo que puede detectar "intenciones hostiles" en los rostros de una multitud.
El argumento de venta es el mismo en todos los sectores: Convertir la expresión en una lectura, convertir la lectura en una decisión. Mide cómo se sienten las personas y los sistemas podrán predecir lo que harán.
La promesa que no se queda en su carril
El reconocimiento emocional suele venderse como una capacidad limitada: Clasificar los movimientos faciales, el tono de voz, la postura o las señales de texto en categorías emocionales. En la práctica, rara vez se queda ahí. Una organización que adquiere un indicador que dice representar "agitación" o "engaño" ha obtenido una herramienta de gobernanza, una que es fácil de puntuar, clasificar, automatizar y justificar a posteriori.Por eso es importante la ciencia subyacente. Las críticas más contundentes no se refieren a si las máquinas pueden detectar movimientos faciales. Se refieren al salto del movimiento al estado interior. El informe de la Asociación Americana de Psicología capta la objeción fundamental: Los movimientos faciales no son un "lenguaje" estable que pueda leerse como un texto, y el contexto influye en gran medida en lo que "dice" un rostro.
Una importante revisión de la Asociación de Ciencias Psicológicas advierte igualmente contra la inferencia directa de emociones a partir de los movimientos faciales, haciendo hincapié en los límites y la dependencia del contexto, en lugar de una correspondencia universal y clara.
El papel de China
China es relevante aquí por una sencilla razón: Cuenta con incentivos tanto de mercado como de gobernanza para impulsar el reconocimiento emocional desde la fase de demostración hasta su uso rutinario. La tecnología se comercializa no solo como análisis de consumidores, sino también como infraestructura de seguridad pública.En las principales ferias de vigilancia de China, el reconocimiento emocional se ha promocionado como una herramienta de prevención del delito que se integrará junto con el reconocimiento facial y otros análisis de comportamiento.
Los informes basados en la China Public Security Expo de 2019 describieron el "reconocimiento emocional" como un tema destacado entre los proveedores que comercializan sistemas de vigilancia y control policial. Un detallado reportaje de la prensa especializada sobre esa misma feria describe la monitorización de emociones como parte de un argumento de venta más amplio de "vigilancia inteligente", con la presencia de grandes empresas y partes interesadas en la seguridad pública.
Los grupos de derechos humanos han catalogado este ecosistema en términos más formales. El informe "Emotional Entanglement" de la organización de derechos humanos con sede en el Reino Unido, ARTICLE 19, documenta un "mercado floreciente" para el reconocimiento emocional en China y analiza sus casos de uso en los ámbitos de la seguridad pública y la educación, advirtiendo que los supuestos subyacentes de la tecnología son controvertidos y que sus implicaciones para los derechos humanos son graves.
El problema del paso del laboratorio a la calle
Incluso si se acepta que la expresión y la emoción están significativamente relacionadas, la cuestión operativa sigue siendo: ¿Pueden los sistemas evaluar de forma fiable en el mundo real?"En el mundo real" es donde la teoría se encuentra con la luz del día, las cámaras y la cultura. Un estudio centrado en el reconocimiento emocional facial en condiciones no controladas pone de relieve modos de fallo habituales: Cambios de iluminación, oclusión, variación de la pose, calidad irregular de las cámaras y el hecho básico de que las personas se expresan de manera diferente incluso cuando sienten lo mismo.
Escolares caminan bajo cámaras de vigilancia en Akto, en la región occidental china de Xinjiang, el 4 de junio de 2019. (Greg Baker/AFP vía Getty Images)Una de las razones por las que las pruebas de las que se informó en China han suscitado escrutinio es que tales herramientas parecen utilizarse en entornos de alto control. Un informe que cita la cobertura de la BBC describe sistemas de detección de emociones vinculados al reconocimiento facial que se están probando en entornos policiales de Xinjiang, con el objetivo de interpretar el estado emocional de los detenidos.
La escala cambia el riesgo, no la validez
Un caso práctico para el reconocimiento emocional rara vez consiste en leer a las personas a la perfección. Se trata de recopilar suficientes señales para construir una imagen útil entre grupos objetivo, cohortes, vecindarios, campus y segmentos demográficos.A escala poblacional, incluso las señales ruidosas pueden resultar útiles desde el punto de vista estadístico. Un sistema no necesita acertar con cada rostro si es capaz de detectar cambios en una curva de respuesta agregada: Qué contenido hace que un segmento se quede, vuelva a ver, comente o comparta; qué mensajes aumentan la participación en una cohorte; cómo difieren las reacciones entre las categorías de edad y sexo.
El reconocimiento emocional a nivel de grupo es un área de investigación activa destinada a estimar el afecto colectivo a partir de múltiples indicios parciales, incluyendo rostros, postura corporal y contexto de la escena. El trabajo en esta área es explícito sobre la distinción entre emoción individual y emoción de grupo: El objetivo suele ser un estado colectivo que puede aproximarse a partir de señales imperfectas, especialmente cuando el tamaño de la muestra es grande.
En cualquier caso, la agregación no resuelve la cuestión de la validez. Puede estabilizar una señal sin garantizar que la señal sea lo que dice ser. Un modelo podría estar rastreando indicadores que se correlacionan con la excitación en un contexto y fallar en otro. La brecha de rendimiento "en el mundo real" persiste, porque tiene su origen en las condiciones y el significado, no solo en el tamaño de la muestra.
Cuando la inferencia se conecta a una máquina diseñada para actuar
La tecnología más trascendental en Xinjiang no es un solo sensor; es la arquitectura que impulsa y legitima la respuesta.El análisis de ingeniería inversa realizado por Human Rights Watch de la aplicación móvil de la policía de Xinjiang conectada a la Plataforma Integrada de Operaciones Conjuntas (IJOP) describe cómo las autoridades agregaron muchos flujos de datos y los utilizaron para generar alertas y pistas de investigación, a menudo basándose en comportamientos legales tratados como sospechosos. La IJOP es el sistema del PCCh que da relevancia a una señal controvertida al asignarle un destino: Una plataforma de fusión que genera listas, alertas y actividades de aplicación de la ley.
Logotipos de aplicaciones de microdramas en un teléfono, el 12 de septiembre de 2025. Los expertos en China dicen que el formato "mobile-first" se ha convertido en una herramienta de propaganda clave para que el Partido Comunista Chino avive el sentimiento nacionalista a nivel nacional e influya en los espectadores extranjeros. (Lily Zhou/The Epoch Times)La calibración demográfica se convierte en influencia demográfica
Los sistemas de reconocimiento emocional suelen justificarse con la promesa de la calibración: Utilizar datos suficientes, segmentarlos adecuadamente y tener en cuenta la variación demográfica para que el modelo sea más preciso. Sobre el papel, eso suena a ingeniería responsable.En la práctica, la segmentación demográfica genera dos efectos: Reducir los errores y reforzar la capacidad de elaboración de perfiles.
El trabajo del Instituto Nacional de Estándares y Tecnología sobre los efectos demográficos en el reconocimiento facial documenta diferencias en las tasas de error entre los distintos grupos demográficos y destaca cómo la calidad de la imagen interactúa con esas diferencias. Estudios más amplios sobre el sesgo en el análisis facial han examinado igualmente cómo los desequilibrios en los datos de entrenamiento y las decisiones de diseño pueden conducir a un rendimiento desigual entre categorías como la edad y el género.
La política está empezando a trazas límites
Europa ha avanzado más que Estados Unidos en la codificación de estos riesgos. La Ley de Inteligencia Artificial de la UE —Reglamento (UE) 2024/1689— impone restricciones al reconocimiento emocional en contextos sensibles como los lugares de trabajo y la educación, reflejando preocupaciones sobre la coacción, la asimetría de poder y la impugnabilidad.¿Qué se puede afirmar de manera responsable?
Los sistemas de reconocimiento emocional pueden detectar patrones en rostros, voces y texto. En algunos contextos limitados y voluntarios, eso puede ser defendible como tecnología de asistencia o investigación. Pero inferir emociones internas de forma fiable en distintos contextos y culturas sigue siendo controvertido, y el despliegue "en el mundo real" introduce fuentes persistentes de error.La preocupación específica respecto a China tiene menos que ver con la lectura mística de la mente y más con la escala y la arquitectura: Un gran ecosistema que impulsa el reconocimiento emocional hacia la policía y la educación; pruebas realizadas en entornos de alto control; y, lo más importante, sistemas de fusión de datos diseñados para convertir señales ambiguas en acción.
A continuación: Esa arquitectura —resolución de identidad, cobertura de sensores y fusión de datos— y por qué, en el modelo chino, la plataforma que pone en práctica la señal puede ser más importante que el propio sensor.
Lea la parte 1 aquí.
Las opiniones expresadas en este artículo son del autor y no reflejan necesariamente las de The Epoch Times.

















