Kanäle
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kuratoren aus Journalismus, Wissenschaft und Politik empfehlen
und kommentieren die besten Inhalte im Netz.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Sonja Peteranderl
Reporter

Senior Editor @Wired_Germany. Co-Founder @BuzzingCities Lab. Berichtet auch für andere Medien wie Spiegel Online über internationale Politik, Tech, Cyber & Crime, OC, oft aus Lateinamerika/Mexiko.

Zum piqer-Profil
piqer: Sonja Peteranderl
Donnerstag, 14.09.2017

Warum der AI-Gaydar Bullshit ist

Kann AI am Gesicht erkennen, ob jemand homosexuell ist? Die vor kurzem vorgestellte und kontrovers diskutierte Studie von Yilun Wang und Michal Kosinski von der Stanford University will genau dies belegen: Sie trainierten eine Gesichtserkennungssoftware mit Fotos von einer US-Datingplattform und Informationen zur sexuellen Orientierung, diese erkannte dann Muster in einem ihr unbekannten Datensatz – für Männer mit einer Trefferquote von 81 Prozent.

Die Studie reiht sich in die umstrittene Tradition der Phänotypologie ein, die versucht, vom Aussehen Charaktereigenschaften und andere Erkenntnisse abzuleiten – etwa ob jemand kriminell ist. Sie beförderte unter anderem die Mugshot-Industrie: Oftmals werden aber vor allem Stereotype recycelt, was zur Diskriminierung ohnehin benachteiligter Bevölkerungsgruppen beiträgt.

"AI Can’t Tell if You’re Gay… But it Can Tell if You’re a Walking Stereotype", schreibt der Soziologe Greggor Mattson, der in seiner Replik zentrale Kritikpunkte an der Vorgehensweise und dem Studiendesign zusammengefasst hat, sowie an den Forschern, die aktuelle Erkenntnisse aus Soziologie und Gender Studies ignorieren. Alles, was jenseits der Marker "gay" und "straight" liegt, wird ignoriert, die Auswahl, mit dem der Algorithmus trainiert wurde, fokussiert sich auf weiße, offen homosexuell lebende Männer aus den USA. Auch die Verwechslung von Ursache und Wirkung sowie unscharfe und umstrittene Kategorien wie "clearly Latino" und "Black" verzerren die Erkenntnisse: "By training their workers according to stereotypical American categories, WAK’s algorithm can only spit out the garbage they put in", so Mattson.

Auch die ethischen Vorstellungen von Kosinski stehen in der Kritik, dessen psychometrische Forschung schon Grundlage für Trumps angebliche Microtargeting-Wunderwaffe von Cambridge Analytica war. Mattsons Fazit: "WAK have invented the algorithmic equivalent of an 13-year-old bully, and claim their abomination is in defense of teh geyz."
Warum der AI-Gaydar Bullshit ist
7,1
5 Stimmen
relevant?

Möchtest du kommentieren? Werde piqd Mitglied!