Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Schwarz/Weiß-Bias: Algorithmen, die kriminelle Karrieren berechnen, irren sich

Sonja Peteranderl
Reporter

Senior Editor @Wired_Germany. Co-Founder @BuzzingCities Lab. Berichtet auch für andere Medien wie Spiegel Online über internationale Politik, Tech, Cyber & Crime, OC, oft aus Lateinamerika/Mexiko.

Zum User-Profil
Sonja PeteranderlMontag, 23.05.2016

Was passiert, wenn Algorithmen vorhersagen, wer zukünftig zum Verbrecher wird? ProPublica vermisst in einer komplexen Recherche, wie sich Software irren kann, die die Wahrscheinlichkeit berechnet, ob straffällig gewordene Personen zu Wiederholungstätern werden: „Two years later, we know the computer algorithm got it exactly backward. Borden has not been charged with any new crimes. Prater is serving an eight-year prison term for subsequently breaking into a warehouse and stealing thousands of dollars’ worth of electronics.“ Kein Einzelfall: ProPublica hat die Risikowerte von mehr als 7000 Personen ausgewertet, die 2013 und 2014 in Broward County, Florida, festgenommen wurden und recherchiert, wie viele in den beiden Folgejahren tatsächlich wieder auffällig wurden.

Das Ergebnis ist erschreckend: „The score proved remarkably unreliable in forecasting violent crime: Only 20 percent of the people predicted to commit violent crimes actually went on to do so.“ Dabei stufte die Software schwarze Angeklagte fälschlicherweise doppelt so häufig als zukünftige Verbrecher ein. Umgekehrt wurde weißen straffällig gewordenen Menschen häufiger ein niedriges Rückfallrisiko zugeschrieben. Die Software kategorisiert nicht grob nach Hautfarbe — doch Aspekte wie soziale Netzwerke, Arbeitslosigkeit oder Wohngebiete können zu Verzerrungen führen. Menschen, die etwa in ärmlichen Gebieten mit hoher Kriminalität leben, werden so automatisch schlechter bewertet, so dass die Software gesellschaftliche Verhältnisse zementiert. Eine gesellschaftliche Debatte und die Diskussion von Algorithmen ist deswegen so wichtig, weil die Rückfallwahrscheinlichkeit von Angeklagten in den USA bereits jetzt in juristische Entscheidungen einfließt und etwa über Gefängnisstrafen entscheiden kann. Ein zentrales Problem ist die mangelnde Transparenz von Analysesoftware: Hersteller geben oft keinen Einblick auf Basis welcher Aspekte die Risikobewertung erfolgt.

Schwarz/Weiß-Bias: Algorithmen, die kriminelle Karrieren berechnen, irren sich

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer KuratorInnen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.