La technologie chinoise de reconnaissance des émotions fait l'objet de critiques

Published on 02 Mar 2021

La technologie chinoise de reconnaissance des émotions a été critiquée par des groupes de défense des droits de l'homme qui réclament l'interdiction de cette technologie qui, selon eux, comporte des préjugés raciaux et est inexacte.

Qu’est-ce que la technologie de reconnaissance des émotions ?

Cette technologie utilise des caméras et l’apprentissage automatique pour identifier les expressions faciales de colère, de tristesse, de bonheur et d’ennui. Le système est censé aider les autorités à déduire les sentiments d’une personne en fonction des mouvements des muscles de son visage, de son langage corporel, de son ton de voix et d’autres signaux biométriques. Contrairement à la technologie de reconnaissance faciale qui compare les visages correspondants à partir d’une base de données, la reconnaissance des émotions fait des déductions sur le comportement des gens. Bien que les citoyens ordinaires du pays ne soient pas satisfaits de cette technologie, ils n’ont guère le choix en la matière.

Mais comme la reconnaissance faciale, elle implique la collecte massive de données personnelles sensibles pour suivre, surveiller et profiler les personnes et utilise l’apprentissage automatique pour analyser les expressions et d’autres indices.

Voir également : Qu'est-ce que le cloudwashing et pourquoi est-il crucial pour les entreprises de l'éviter ?

Taigusys et leur avis sur la technologie

Taigusys est l'une des entreprises spécialisées dans cette technologie. Chen Wei, un représentant de l'entreprise, explique que la reconnaissance des émotions est un moyen de prédire les comportements dangereux des prisonniers, d'identifier les criminels potentiels aux points de contrôle, de reconnaître les élèves en difficulté dans les écoles et de reconnaître la démence chez les personnes âgées dans les maisons de retraite. Les systèmes de l'entreprise sont installés dans 300 prisons et centres de détention et connectent plus de 60 000 caméras.
« La violence et le suicide sont très courants dans les centres de détention. Même si les policiers ne frappent plus les prisonniers de nos jours, ils essaient souvent de les épuiser en les empêchant de s'endormir. Certains prisonniers souffrent alors de dépression nerveuse et cherchent à se suicider. Notre système contribuera à empêcher que cela se produise », explique Chen.
Les systèmes de Taigusys ont également été installés dans les écoles pour surveiller les élèves, le personnel et les enseignants. L'utilisation de cette technologie dans les écoles a suscité quelques critiques, mais on n'a pas beaucoup parlé de l'utilisation de la reconnaissance des émotions par les autorités sur les citoyens.

Voir également : Qu’est-ce que Microsoft Viva et pourquoi devriez-vous vous en soucier ?

Critiques sur la technologie

Les critiques de la question de la validité de la technologie affirment qu’elle repose sur une pseudo-science et repose largement sur des stéréotypes. Un grand nombre de militants des droits de l’homme affirment que la technologie pourrait avoir de graves répercussions négatives sur la liberté d’expression, la vie privée et les droits de l’homme. Vidushi Marda, avocate spécialisée dans l’impact socio-juridique des nouvelles technologies, est également responsable du programme numérique au sein de l’organisation britannique de défense des droits de l’homme Article 19. Elle déclare : « Je pense qu’une grande partie de la surveillance biométrique est étroitement liée à l’intimidation et à la censure, et je suppose que [la reconnaissance des émotions] en est un exemple. »

Image en vedette : Photo de personnes créée par rawpixel.com - www.freepik.com