Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Bitte lächeln! Die Tücken von Systemen zur Emotionserkennung

Christian Huberts
mächtiger™ Kulturwissenschaftler und Kulturjournalist
Zum piqer-Profil
Christian HubertsFreitag, 09.04.2021

Einmal vor der Webcam das falsche Produkt auf dem Bildschirm angelächelt und schon wird man mit Werbung überschüttet. Oder beim Bewerbungsgespräch über Zoom einmal zu wenig gelächelt und schon sagt der Computer nein. Das sind nur zwei von vielen Einsatzmöglichkeiten moderner Emotion-Recognition-Systems, die durch maschinelles Lernen auf das Erkennen emotionaler Zustände trainiert wurden. Oder genauer: auf das Erkennen bestimmter visueller Muster in menschlichen Gesichtern, die sich in der Regel bestimmten emotionalen Zuständen zuordnen lassen. Wie so oft bei so genannter »Künstlicher Intelligenz«, werden auch den digitalen Systemen zur Emotionserkennung Fähigkeiten zugeschrieben, die sie schlicht (noch?) nicht erfüllen können. Und diese magischen Zuschreibungen sind ein Einfallstor für Möglichkeiten der Manipulation und Diskriminierung.

»The use of emotion recognition technologies is deeply concerning as not only are these systems based on discriminatory and discredited science, their use is also fundamentally inconsistent with human rights […]. An important learning from the trajectory of facial recognition systems across the world has been to question the validity and need for technologies early and often – and projects that emphasise on the limitations and dangers of emotion recognition are an important step in that direction.«

So wird die leitende Programmbeauftrage Vidushi Marda der Menschenrechtsorganisation Article 19 vom hier gepiqten Guardian zitiert. Und ein Projekt, das eben genau auf diese Grenzen und Gefahren der Emotionserkennung aufmerksam macht, stammt von einer Forschergruppe der Universität in Cambridge. Sie haben eine Website namens Emojify veröffentlicht, auf der sich die Tücken der Technologie selbst erproben lassen. Ein sehenswertes Video vermittelt die Hintergründe. Kernstück der Seite ist aber ein kleines Tool, mit dem man versuchen kann, den Algorithmus vor der eigenen Webcam auszutricksen und »Gefühle« durch Grimassen vorzutäuschen. Weil echte Gefühlszustände dann eben doch weitaus komplexer sind, klappt das erschreckend einfach. Also fix das schönste falsche Lächeln aufsetzen!

Bitte lächeln! Die Tücken von Systemen zur Emotionserkennung

Möchtest du kommentieren? Dann werde jetzt Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer KuratorInnen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.