Kanäle
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kuratoren aus Journalismus, Wissenschaft und Politik empfehlen
und kommentieren die besten Inhalte im Netz.

Du befindest dich im Kanal:

Feminismen

Theresia Enzensberger
Journalistin und Herausgeberin des BLOCK Magazins
Zum piqer-Profil
piqer: Theresia Enzensberger
Sonntag, 26.06.2016

Wie Sexismus und Rassismus in Algorithmen fortleben

Anstatt uns Sorgen darum zu machen, dass Maschinen irgendwann intelligenter sein könnten als Menschen, sollten wir uns mit den Problemen beschäftigen, die künstliche Intelligenz heute schon hat, sagt Kate Crawford. 

Es ist wie mit allen technologischen Neuerungen: Das Problem ist nicht, dass sie eine neue Gesellschaftsordnung einläuten, sondern dass sie bestehende gesellschaftliche Probleme reproduzieren oder verschärfen – Sexismus und Rassismus, zum Beispiel. 

Die Algorithmen - die „Intelligenz" der digitalen Welt - entscheiden aufgrund der Daten, mit denen sie gefüttert werden. Wenn diese Daten durch die schiere Verteilung eine Norm suggerieren (eine weiße, heterosexuelle, männliche Norm), kann das schwerwiegende Konsequenzen haben:

"A very serious example was revealed in an investigation published last month by ProPublica. It found that widely used software that assessed the risk of recidivism in criminals was twice as likely to mistakenly flag black defendants as being at a higher risk of committing future crimes. It was also twice as likely to incorrectly flag white defendants as low risk."

Crawford ist vorsichtig, wenn es darum geht, die Gründe für diese Missverhältnisse zu analysieren. Mangelnde Transparenz ist Usus in der kommerziellen Tech-Branche. Ich finde es nicht schwierig, mir vorzustellen, dass das Problem bei der (mangelnden) Vielfalt in den Firmen liegen könnte, die diese Programme entwerfen. Den Schritt geht Crawford nicht, aber immerhin weist sie darauf hin, wie wichtig es ist, dass die Mechanismen beim Entwurf der Algorithmen offengelegt werden.  

Wie Sexismus und Rassismus in Algorithmen fortleben
7,1
5 Stimmen
relevant?

Möchtest du kommentieren? Werde piqd Mitglied!

Kommentare 1
  1. Daniel Schreiber
    Daniel Schreiber · vor mehr als einem Jahr

    Total wichtiges Thema, no? Danke für die Empfehlung, Theresia.