Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Fundstücke

Gebt Robotern die Freiheit, eine eigene Moral zu entwickeln

Ole Wintermann
Zum picker-Profil
Ole WintermannDienstag, 25.04.2017

In ihrem sehr anspruchsvollen Beitrag beschreibt Regina Rini, Professorin für Bioethik an der New York University, die Herausforderung, angesichts der Entwicklungen auf dem Feld der AI (KI) eine „Robotermoral” zu entwickeln. Dabei geht es ihr nicht um die vieldiskutierte implizit codierte Ethik in Algorithmen, sondern um die Frage, welche Art von Moral in Zukunft handlungsleitend für autonome Roboter sein könnte.

Sollten wir Menschen unsere Vorstellung von Moral (sei es eine übergeordnete Art von Moral oder eine dem Menschen innewohnende Moral) auf die Roboter übertragen? Wie sollten wir aber unsere Form von Moral auf die Roboter übertragen, wenn diese Entscheidungen treffen, die wir Menschen nicht mehr verstehen können (s.a. der Zug 37 im Go-Wettkampf)? Bräuchte es dann nicht auch eine Robotermoral, die wir Menschen nicht unbedingt nachvollziehen können (müssen)?

Damit verbunden sind zwei verschiedene auf Hoffnungen oder Befürchtungen basierende Vorstellungen: Entweder rettet die „klügere” Moral der Roboter die Menschheit vor dem Untergang oder sie bringt gerade den Untergang der „unmoralischen” Menschheit (s.a. Debatte von Musk und Hawking; Wir müssen Roboter jederzeit abstellen können).

Rini schlägt einen dritten Weg vor: Wir sollten Roboter ebenso behandeln wie unsere Kinder in der Zeit des Erwachsenwerdens. Wir können Orientierungen geben, müssen sie aber nicht jederzeit verstehen und ihre Entscheidungen verstehen können. Sie agieren später auf Basis einer moralischen Synthese von Paradigmen, die die Menschen ihnen mitgegeben haben und die sie (die Roboter) selbst aufgrund ihrer eigenen Lebenserfahrungen für sich als handlungsleitend erkannt haben. 

Die Aussage des Beitrags fordert uns Menschen heraus; wir sollten uns aber diesen Fragen proaktiv stellen.

Gebt Robotern die Freiheit, eine eigene Moral zu entwickeln

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer KuratorInnen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.