Reconocimiento emocional, parte 2: Identificación colectiva e individual

Un ingeniero de software trabaja en un programa de reconocimiento facial que identifica a las personas cuando usan mascarilla, en el laboratorio de desarrollo de un fabricante chino de productos electrónicos en Beijing, mientras el país se ve afectado por el brote de la pandemia de coronavirus, el 6 de marzo de 2020. (Thomas Peter/Reuters)

Un ingeniero de software trabaja en un programa de reconocimiento facial que identifica a las personas cuando usan mascarilla, en el laboratorio de desarrollo de un fabricante chino de productos electrónicos en Beijing, mientras el país se ve afectado por el brote de la pandemia de coronavirus, el 6 de marzo de 2020. (Thomas Peter/Reuters)

20 de abril de 2026, 7:30 p. m.
| Actualizado el20 de abril de 2026, 7:30 p. m.

Este es un segmento de una serie de seis partes que analiza cómo el régimen chino lleva a cabo sus operaciones de influencia modernas. Lea la primera parte aquí.

Opinión

Un responsable de contratación observa a un candidato responder a preguntas por videoconferencia. En una esquina de la pantalla, un widget muestra una evaluación en tiempo real: Comprometido, ansioso, evasivo. Al final del pasillo, un administrador promociona un software que promete detectar la "frustración" en los exámenes a distancia. En un aeropuerto, un proveedor dijo que puede detectar "intenciones hostiles" en los rostros de una multitud.

El argumento de venta es el mismo en todos los sectores: Convertir la expresión en una lectura, convertir la lectura en una decisión. Mide cómo se sienten las personas y los sistemas podrán predecir lo que harán.

El problema es que la medición es controvertida, y una vez que se trata como algo autoritario, puede causar daño incluso cuando es errónea.

La promesa que no se queda en su carril

El reconocimiento emocional suele venderse como una capacidad limitada: Clasificar los movimientos faciales, el tono de voz, la postura o las señales de texto en categorías emocionales. En la práctica, rara vez se queda ahí. Una organización que adquiere un indicador que dice representar "agitación" o "engaño" ha obtenido una herramienta de gobernanza, una que es fácil de puntuar, clasificar, automatizar y justificar a posteriori.
Historias relacionadas

Legisladores de Pensilvania condenan la persecución y la represión transnacional del PCCh

Legisladores de Pensilvania condenan la persecución y la represión transnacional del PCCh

Por eso es importante la ciencia subyacente. Las críticas más contundentes no se refieren a si las máquinas pueden detectar movimientos faciales. Se refieren al salto del movimiento al estado interior. El informe de la Asociación Americana de Psicología capta la objeción fundamental: Los movimientos faciales no son un "lenguaje" estable que pueda leerse como un texto, y el contexto influye en gran medida en lo que "dice" un rostro.

Una importante revisión de la Asociación de Ciencias Psicológicas advierte igualmente contra la inferencia directa de emociones a partir de los movimientos faciales, haciendo hincapié en los límites y la dependencia del contexto, en lugar de una correspondencia universal y clara.

Esa brecha —entre lo que sugieren los proveedores y lo que respalda la investigación— se amplía rápidamente en las implementaciones reales.

El papel de China

China es relevante aquí por una sencilla razón: Cuenta con incentivos tanto de mercado como de gobernanza para impulsar el reconocimiento emocional desde la fase de demostración hasta su uso rutinario. La tecnología se comercializa no solo como análisis de consumidores, sino también como infraestructura de seguridad pública.

En las principales ferias de vigilancia de China, el reconocimiento emocional se ha promocionado como una herramienta de prevención del delito que se integrará junto con el reconocimiento facial y otros análisis de comportamiento.

Historias relacionadas

Los legisladores presentan una ley para combatir la persecución religiosa del PCCh en China

Los legisladores presentan una ley para combatir la persecución religiosa del PCCh en China

Los informes basados en la China Public Security Expo de 2019 describieron el "reconocimiento emocional" como un tema destacado entre los proveedores que comercializan sistemas de vigilancia y control policial. Un detallado reportaje de la prensa especializada sobre esa misma feria describe la monitorización de emociones como parte de un argumento de venta más amplio de "vigilancia inteligente", con la presencia de grandes empresas y partes interesadas en la seguridad pública.

Los grupos de derechos humanos han catalogado este ecosistema en términos más formales. El informe "Emotional Entanglement" de la organización de derechos humanos con sede en el Reino Unido, ARTICLE 19, documenta un "mercado floreciente" para el reconocimiento emocional en China y analiza sus casos de uso en los ámbitos de la seguridad pública y la educación, advirtiendo que los supuestos subyacentes de la tecnología son controvertidos y que sus implicaciones para los derechos humanos son graves.

La cuestión no es si todas las afirmaciones de un folleto son ciertas; es que un gran Estado con fuertes incentivos para el "mantenimiento de la estabilidad" está activamente interesado en convertir inferencias controvertidas en respuestas administrativas.

El problema del paso del laboratorio a la calle

Incluso si se acepta que la expresión y la emoción están significativamente relacionadas, la cuestión operativa sigue siendo: ¿Pueden los sistemas evaluar de forma fiable en el mundo real?

"En el mundo real" es donde la teoría se encuentra con la luz del día, las cámaras y la cultura. Un estudio centrado en el reconocimiento emocional facial en condiciones no controladas pone de relieve modos de fallo habituales: Cambios de iluminación, oclusión, variación de la pose, calidad irregular de las cámaras y el hecho básico de que las personas se expresan de manera diferente incluso cuando sienten lo mismo.

Escolares caminan bajo cámaras de vigilancia en Akto, en la región occidental china de Xinjiang, el 4 de junio de 2019. (Greg Baker/AFP vía Getty Images)Escolares caminan bajo cámaras de vigilancia en Akto, en la región occidental china de Xinjiang, el 4 de junio de 2019. (Greg Baker/AFP vía Getty Images)

Una de las razones por las que las pruebas de las que se informó en China han suscitado escrutinio es que tales herramientas parecen utilizarse en entornos de alto control. Un informe que cita la cobertura de la BBC describe sistemas de detección de emociones vinculados al reconocimiento facial que se están probando en entornos policiales de Xinjiang, con el objetivo de interpretar el estado emocional de los detenidos.

Incluso dejando de lado los detalles de cualquier proyecto piloto concreto, el patrón general es coherente: Cuanto más coercitivo es el entorno, más se convierte en una herramienta de justificación. Un número en una pantalla puede cambiar el curso de un interrogatorio, incluso cuando el número es erróneo.

La escala cambia el riesgo, no la validez

Un caso práctico para el reconocimiento emocional rara vez consiste en leer a las personas a la perfección. Se trata de recopilar suficientes señales para construir una imagen útil entre grupos objetivo, cohortes, vecindarios, campus y segmentos demográficos.

A escala poblacional, incluso las señales ruidosas pueden resultar útiles desde el punto de vista estadístico. Un sistema no necesita acertar con cada rostro si es capaz de detectar cambios en una curva de respuesta agregada: Qué contenido hace que un segmento se quede, vuelva a ver, comente o comparta; qué mensajes aumentan la participación en una cohorte; cómo difieren las reacciones entre las categorías de edad y sexo.

El reconocimiento emocional a nivel de grupo es un área de investigación activa destinada a estimar el afecto colectivo a partir de múltiples indicios parciales, incluyendo rostros, postura corporal y contexto de la escena. El trabajo en esta área es explícito sobre la distinción entre emoción individual y emoción de grupo: El objetivo suele ser un estado colectivo que puede aproximarse a partir de señales imperfectas, especialmente cuando el tamaño de la muestra es grande.

Historias relacionadas

Premio "Voice of Courage" rinde homenaje a defensores que luchan contra la trata de personas y la persecución

Premio "Voice of Courage" rinde homenaje a defensores que luchan contra la trata de personas y la persecución

En cualquier caso, la agregación no resuelve la cuestión de la validez. Puede estabilizar una señal sin garantizar que la señal sea lo que dice ser. Un modelo podría estar rastreando indicadores que se correlacionan con la excitación en un contexto y fallar en otro. La brecha de rendimiento "en el mundo real" persiste, porque tiene su origen en las condiciones y el significado, no solo en el tamaño de la muestra.

Lo que hace la escala es cambiar el perfil de riesgo. Incluso una ventaja estadística modesta a nivel de segmento puede volverse operativamente poderosa cuando se fusiona con sistemas de identidad y se trata como inteligencia procesable.

Cuando la inferencia se conecta a una máquina diseñada para actuar

La tecnología más trascendental en Xinjiang no es un solo sensor; es la arquitectura que impulsa y legitima la respuesta.

El análisis de ingeniería inversa realizado por Human Rights Watch de la aplicación móvil de la policía de Xinjiang conectada a la Plataforma Integrada de Operaciones Conjuntas (IJOP) describe cómo las autoridades agregaron muchos flujos de datos y los utilizaron para generar alertas y pistas de investigación, a menudo basándose en comportamientos legales tratados como sospechosos. La IJOP es el sistema del PCCh que da relevancia a una señal controvertida al asignarle un destino: Una plataforma de fusión que genera listas, alertas y actividades de aplicación de la ley.

Logotipos de aplicaciones de microdramas en un teléfono, el 12 de septiembre de 2025. Los expertos en China dicen que el formato "mobile-first" se ha convertido en una herramienta de propaganda clave para que el Partido Comunista Chino avive el sentimiento nacionalista a nivel nacional e influya en los espectadores extranjeros. (Lily Zhou/The Epoch Times)Logotipos de aplicaciones de microdramas en un teléfono, el 12 de septiembre de 2025. Los expertos en China dicen que el formato "mobile-first" se ha convertido en una herramienta de propaganda clave para que el Partido Comunista Chino avive el sentimiento nacionalista a nivel nacional e influya en los espectadores extranjeros. (Lily Zhou/The Epoch Times)
Los investigadores que escriben sobre la inteligencia artificial emocional en la delincuencia y la policía hacen hincapié en este riesgo institucional: La base empírica de su eficacia es débil, mientras que la intrusión y las consecuencias posteriores pueden ser graves, incluso antes de que se debata su precisión. Esa advertencia encaja especialmente bien en el contexto chino porque el sistema en general ya da prioridad a la prevención: Detectar anomalías, señalar riesgos y actuar con antelación.

La calibración demográfica se convierte en influencia demográfica

Los sistemas de reconocimiento emocional suelen justificarse con la promesa de la calibración: Utilizar datos suficientes, segmentarlos adecuadamente y tener en cuenta la variación demográfica para que el modelo sea más preciso. Sobre el papel, eso suena a ingeniería responsable.

En la práctica, la segmentación demográfica genera dos efectos: Reducir los errores y reforzar la capacidad de elaboración de perfiles.

El trabajo del Instituto Nacional de Estándares y Tecnología sobre los efectos demográficos en el reconocimiento facial documenta diferencias en las tasas de error entre los distintos grupos demográficos y destaca cómo la calidad de la imagen interactúa con esas diferencias. Estudios más amplios sobre el sesgo en el análisis facial han examinado igualmente cómo los desequilibrios en los datos de entrenamiento y las decisiones de diseño pueden conducir a un rendimiento desigual entre categorías como la edad y el género.

El efecto de elaboración de perfiles es más difícil de defender. Una vez que un sistema corrige explícitamente en función de indicadores de edad, sexo y origen nacional, también crea un conjunto de herramientas para el trato diferencial en función de esos atributos. Ese conjunto de herramientas facilita la orientación a nivel de audiencia.

La política está empezando a trazas límites

Europa ha avanzado más que Estados Unidos en la codificación de estos riesgos. La Ley de Inteligencia Artificial de la UE —Reglamento (UE) 2024/1689— impone restricciones al reconocimiento emocional en contextos sensibles como los lugares de trabajo y la educación, reflejando preocupaciones sobre la coacción, la asimetría de poder y la impugnabilidad.
Independientemente de lo que se piense de las decisiones normativas de Europa, la lógica subyacente es clara: Se trata de entornos en los que las personas no pueden excluirse de manera significativa y en los que puede resultar difícil cuestionar las afirmaciones de un sistema sobre el estado interior, incluso cuando son erróneas.

¿Qué se puede afirmar de manera responsable?

Los sistemas de reconocimiento emocional pueden detectar patrones en rostros, voces y texto. En algunos contextos limitados y voluntarios, eso puede ser defendible como tecnología de asistencia o investigación. Pero inferir emociones internas de forma fiable en distintos contextos y culturas sigue siendo controvertido, y el despliegue "en el mundo real" introduce fuentes persistentes de error.

La preocupación específica respecto a China tiene menos que ver con la lectura mística de la mente y más con la escala y la arquitectura: Un gran ecosistema que impulsa el reconocimiento emocional hacia la policía y la educación; pruebas realizadas en entornos de alto control; y, lo más importante, sistemas de fusión de datos diseñados para convertir señales ambiguas en acción.

A continuación: Esa arquitectura —resolución de identidad, cobertura de sensores y fusión de datos— y por qué, en el modelo chino, la plataforma que pone en práctica la señal puede ser más importante que el propio sensor.

Lea la parte 1 aquí.

Las opiniones expresadas en este artículo son del autor y no reflejan necesariamente las de The Epoch Times.


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad, en el botón a continuación podrá hacer una donación:

Síganos en Facebook para informarse al instante

Comentarios (0)

Nuestra comunidad prospera gracias a un diálogo respetuoso, por lo que te pedimos amablemente que sigas nuestras pautas al compartir tus pensamientos, comentarios y experiencia. Esto incluye no realizar ataques personales, ni usar blasfemias o lenguaje despectivo. Aunque fomentamos la discusión, los comentarios no están habilitados en todas las historias, para ayudar a nuestro equipo comunitario a gestionar el alto volumen de respuestas.

TE RECOMENDAMOS
ÚLTIMAS NOTICIAS
Shen Yun Banner Header