La tecnología de reconocimiento de emociones de China ha recibido críticas de grupos de derechos humanos que piden la prohibición de una tecnología que, según ellos, tiene un sesgo racial y es inexacta.
¿Qué es la tecnología de reconocimiento de emociones?
La tecnología utiliza cámaras y aprendizaje automático para identificar expresiones faciales de enojo, tristeza, felicidad y aburrimiento. Se supone que el sistema ayuda a las autoridades a inferir los sentimientos de una persona basándose en el movimiento de los músculos faciales, el lenguaje corporal, el tono de voz y otras señales biométricas. A diferencia de la tecnología de reconocimiento facial que compara rostros de una base de datos, el reconocimiento de emociones permite inferir sobre el comportamiento de las personas. Aunque los ciudadanos comunes del país no están contentos con la tecnología, tienen pocas opciones al respecto.
Pero, de manera similar al reconocimiento facial, implica la recopilación masiva de datos personales confidenciales para rastrear, monitorear y perfilar a las personas y utiliza el aprendizaje automático para analizar expresiones y otras pistas.
Ver también: ¿Qué es el cloudwashing y por qué es crucial que las empresas lo eviten?
Taigusys y su opinión sobre la tecnología
Taigusys es una de las empresas especializadas en esta tecnología. Chen Wei, un representante de la empresa, afirma que el reconocimiento de emociones es una forma de predecir el comportamiento peligroso de los presos, identificar a posibles delincuentes en los puestos de control, reconocer a los estudiantes con problemas en las escuelas y reconocer la demencia entre las personas mayores en residencias de ancianos. Los sistemas de la empresa están instalados en 300 prisiones y centros de detención y conectan más de 60.000 cámaras.
“La violencia y el suicidio son muy comunes en los centros de detención. Aunque hoy en día la policía no golpea a los presos, a menudo intenta agotarlos impidiéndoles dormirse. Como resultado, algunos presos sufren una crisis nerviosa y tratan de suicidarse. Y nuestro sistema ayudará a evitar que eso suceda”, afirma Chen.
Los sistemas de Taigusys también se han instalado en escuelas para monitorear a estudiantes, personal y maestros. El uso de esta tecnología en las escuelas ha generado algunas críticas, pero no se ha discutido mucho sobre el uso del reconocimiento de emociones por parte de las autoridades en los ciudadanos.
Ver también: ¿Qué es Microsoft Viva y por qué debería importarte?
Críticas a la tecnología
Los críticos de la cuestión de la validez de la tecnología afirman que se basa en pseudociencia y se apoya en gran medida en estereotipos. Un gran número de activistas de derechos humanos afirman que la tecnología podría tener graves efectos negativos sobre la libertad de expresión, la privacidad y los derechos humanos. Vidushi Marda, abogada especializada en el impacto sociojurídico de las tecnologías emergentes, también es directora de programas digitales en la organización británica de derechos humanos Article 19. Dice: “Creo que gran parte de la vigilancia biométrica está estrechamente vinculada a la intimidación y la censura, y supongo que [el reconocimiento de emociones] es un ejemplo de ello”.
Imagen destacada: Foto de personas creada por rawpixel.com - www.freepik.com