Chinas Technologie zur Emotionserkennung ist von Menschenrechtsgruppen kritisiert worden. Diese fordern ein Verbot der Technologie, die ihrer Meinung nach rassistisch voreingenommen und ungenau sei.
Was ist Emotionserkennungstechnologie?
Die Technologie nutzt Kameras und maschinelles Lernen, um Gesichtsausdrücke von Wut, Trauer, Freude und Langeweile zu erkennen. Das System soll den Behörden helfen, die Gefühle einer Person anhand der Bewegungen der Gesichtsmuskeln, der Körpersprache, der Stimmlage und anderer biometrischer Signale abzuleiten. Anders als Gesichtserkennungstechnologien, die Gesichter aus einer Datenbank vergleichen, lässt die Emotionserkennung Rückschlüsse auf das Verhalten von Menschen zu. Obwohl die Bürger des Landes mit der Technologie nicht glücklich sind, haben sie kaum eine Wahl.
Doch ähnlich wie bei der Gesichtserkennung werden hier sensible persönliche Daten massenhaft gesammelt, um Menschen zu verfolgen, zu überwachen und Profile davon zu erstellen. Dabei kommt maschinelles Lernen zum Einsatz, um Ausdrücke und andere Hinweise zu analysieren.
Siehe auch: Was ist Cloudwashing und warum ist es für Unternehmen so wichtig, es zu vermeiden?
Taigusys und ihre Meinung zur Technologie
Taigusys ist eines der Unternehmen, die sich auf diese Technologie spezialisiert haben. Chen Wei, ein Vertreter des Unternehmens, sagt, dass Emotionserkennung eine Möglichkeit sei, gefährliches Verhalten von Gefangenen vorherzusagen, potenzielle Kriminelle an Kontrollpunkten zu identifizieren, Schüler mit Problemen in der Schule zu erkennen und Demenz bei älteren Menschen in Pflegeheimen zu erkennen. Die Systeme des Unternehmens sind in 300 Gefängnissen und Haftanstalten installiert und verbinden über 60.000 Kameras.
„Gewalt und Selbstmord sind in Haftanstalten weit verbreitet. Auch wenn die Polizei Gefangene heutzutage nicht schlägt, versucht sie oft, sie zu zermürben, indem sie sie nicht einschlafen lässt. Infolgedessen erleiden einige Gefangene einen Nervenzusammenbruch und versuchen, sich umzubringen. Und unser System wird dazu beitragen, dies zu verhindern“, sagt Chen.
Die Systeme von Taigusys wurden auch in Schulen installiert, um Schüler, Personal und Lehrer zu überwachen. Der Einsatz dieser Technologie in Schulen hat zu einiger Kritik geführt, aber über den Einsatz der Emotionserkennung bei Bürgern durch Behörden wurde wenig diskutiert.
Siehe auch: Was ist Microsoft Viva und warum sollte es Sie interessieren?
Kritik an der Technologie
Kritiker stellen die Gültigkeit der Technologie in Frage und sagen, sie beruhe auf Pseudowissenschaft und stütze sich stark auf Stereotypen. Zahlreiche Menschenrechtsaktivisten sagen, die Technologie könne schwerwiegende negative Auswirkungen auf die Meinungsfreiheit, die Privatsphäre und die Menschenrechte haben. Vidushi Marda ist Anwältin und spezialisiert sich auf die sozio-rechtlichen Auswirkungen neuer Technologien. Sie ist außerdem Digital Program Managerin bei der britischen Menschenrechtsorganisation Article 19. Sie sagt: „Ich denke, ein Großteil der biometrischen Überwachung ist eng mit Einschüchterung und Zensur verbunden, und ich nehme an, [Emotionserkennung] ist ein Beispiel dafür.“
Vorgestelltes Bild: Personenfoto erstellt von rawpixel.com – www.freepik.com