Kanäle
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Zukunft und Arbeit

Ole Wintermann
Zum piqer-Profil
piqer: Ole Wintermann
Montag, 01.04.2019

Vertrauen in künstliche Intelligenz: Wir sollten nicht alles wissen wollen

Der spannende Beitrag bei Wired hinterfragt scheinbar logisch klingende und einfache Weisheiten, wenn es darum geht, künstliche Intelligenzen (KI) zu kontrollieren. Er konstruiert einen Anwendungsfall, bei dem es darum geht, dass eine KI eine medizinische Diagnose abgibt, infolgedessen der Patient ein Medikament mit etlichen Nebenwirkungen einnehmen muss. In der ersten Szenerie belässt es der behandelnde Doktor bei dem Hinweis auf die KI, in der zweiten Szenerie erklärt der Doktor, wie die KI zu der Entscheidung gekommen ist. 

"Let people look inside the black box of the algorithm, the thinking goes, and their mistrust, hostility, and fear will gradually melt away."

So einfach ist es aber nicht. Der Autor des Beitrags zeigt an einem konkreten Beispiel der von Assistent zu Assistent variierenden Zensuren bei gleichen Prüfungsaufgaben an der Stanford University, wie Misstrauen gegenüber menschlichen Entscheidungen entstehen kann und sogar noch weiter ansteigt, wenn eine KI die menschliche Verzerrung ausgleichen soll. Das zugrundeliegende Experiment an der Universität wurde in den letzten Jahren noch weiter ausgebaut. Die Forscher kamen zu dem Ergebnis, dass Transparenz über den Mechanismus einer KI nur dann hilft, Vertrauen in die Maschine zu bekommen, wenn die Erwartungen bezüglich des Outcomes der Maschine den tatsächlichen Resultaten entsprechen und ein mittleres Kenntnisniveau über die KI vorliegt. Die ungünstigste Kombination ist mangelnde Transparenz und ein gänzlich unerwartetes Ergebnis. Aber auch die komplette Kenntnis des KI-Mechanismus verstärkte im Experiment wider Erwarten das Misstrauen. Die Erklärung dieses scheinbaren Widerspruchs kommt aus der Anthropologie:

"For human beings, then, there is such a thing as the “right” amount of transparency—not too little, not too much. …. the same applies to algorithms."

Wir müssen also aufhören, KIs zu vermenschlichen, wenn wir Vertrauen in sie aufbauen wollen - oder aufhören zu intensiv nachzufragen.

Vertrauen in künstliche Intelligenz: Wir sollten nicht alles wissen wollen
9
8 Stimmen
relevant?

Möchtest du kommentieren? Dann werde jetzt Mitglied!

Kommentare 2
  1. Thomas Rehehäuser
    Thomas Rehehäuser · Erstellt vor 5 Monaten ·

    Ein spannender piq mit einer auf den ersten Blick erstaunlichen Botschaft. Danke!

    1. Ole Wintermann
      Ole Wintermann · Erstellt vor 5 Monaten ·

      Gern. Danke für das Feedback! VG

Bleib immer informiert! Hier gibt's den Kanal Zukunft und Arbeit als Newsletter.