Kanäle
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Zukunft und Arbeit

Cornelia Daheim
Zukunftsforscherin
Zum piqer-Profil
piqer: Cornelia Daheim
Donnerstag, 08.09.2016

Maschinen mit Vorurteilen

Künstliche Intelligenz (KI) wird unsere Zukunft prägen – nüchtern und zuverlässig soll sie die gewaltigen Datenmengen analysieren, die in Arbeitswelt und Privatleben erhoben werden, und dann klar und ohne Voreingenommenheit, ganz anders als der Mensch, Handlungsmöglichkeiten vorschlagen oder gleich selbst zur Tat schreiten. Aber: Woran lernt eine KI, das richtige zu tun?

Und da haben wir ein Dilemma, das sich z.B. darin ausdrückt, dass die App Google Photos Farbige als Gorillas identifiziert, die Software in HP MediaSmart-Notebooks die Gesichter von Menschen mit nicht-weißer Haut nicht erkennen kann oder eine KI nahezu ausschließlich Weiße als gut aussehend bewertet. Oder Google Frauen seltener Anzeigen für gut bezahlte Arbeitsplätze zeigt. Oder eine KI das Rückfallrisiko farbiger Straftäter ungerechtfertigt weitaus höher einschätzt als das weißer. Bei der Entwicklung von KI liegt die Gefahr also momentan viel weniger darin, dass ein Supercomputer entsteht, der am Ende die Menschheit beherrscht, sondern ganz aktuell, dass die Vorurteile, die unsere Welt heute prägen, unerkannt weiterleben – und im schlimmsten Fall dank der Maschine als neutral und ausgewogen gelten. 

Maschinen mit Vorurteilen
7,8
7 Stimmen
relevant?

Möchtest du kommentieren? Werde piqd Mitglied für unter 4€ pro Monat!