Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Feminismen

Programmierte Ungerechtigkeit

Theresa Lachner
Journalistin / Systemische Sexualberaterin / Gründerin von LVSTPRINZIP
Zum piqer-Profil
Theresa LachnerMontag, 30.05.2022

Warum passt die Welt für manche Menschen besser als für andere? Und wie tragen nicht nur Menschen, sondern auch Maschinen zu struktureller Diskriminierung bei?

Schwarze Menschen werden von Gesichtserkennungssoftware und Lichtschranken schlechter wahrgenommen. Die Inhalte mehrgewichtiger Influencerinnen werden in sozialen Netzwerken weniger ausgespielt oder gleich gesperrt.

Symptom-Checker-Apps deuten Krankheitssymptome falsch und sorgen dafür, dass die Diskriminierung im schlimmsten Fall sogar tödlich enden kann.

Im Auftakt der neuen Doku-Reihe "Digital Empire" von ZDF Zoom geht es um unethische Technik und verzerrte Datensätze, aber auch um die Verantwortung von Wirtschaft und Politik, die digitale Welt gerechter zu machen – und um uns alle, die wir uns dieser Ungerechtigkeiten erst mal bewusst werden müssen.

Programmierte Ungerechtigkeit

Möchtest du kommentieren? Dann werde jetzt Mitglied!

Kommentare 1
  1. Silvio Andrae
    Silvio Andrae · vor einem Tag

    Ich möchte in diesem Zusammenhang das neue Buch von Cathy O'Neil "The Shame Machine: Who Profits in the New Age of Humiliation" empfehlen. Als Mathematikerin hatte sich bereits in ihrem 2016 erschienenen Buch "How Big Data Increases Inequality and Threats Democracy" die Vorstellung demontiert, dass Algorithmen objektiv sind. Sie zeigt dort stattdessen anhand vieler Beispiele, wie Algorithmen Ungleichheit verfestigen können und dies auch tun. In ihrem neuen Buch geht es um den Einsatz von Scham als ein wirksames Mittel, um eine systembedingte Ungerechtigkeit gegen die Betroffenen zu wenden. Wenn man sich von einen Algorithmus interessiert, hört man häufig: "Das kannst du nicht verantworten". Dieses Etikett reicht oft aus, um die betroffenen Menschen dazu zu bringen, keine Fragen mehr zu stellen. Sie fordert daher darauf zu bestehen, dass das Design der Plattformen, einschließlich der Algorithmen, geprüft und auf Toxizität überwacht wird. Kein einfacher Weg, aber machbar.

Bleib immer informiert! Hier gibt's den Kanal Feminismen als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer KuratorInnen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.