Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Fundstücke

Künstliche Intelligenz will nicht überleben. Gerade das könnte sie gefährlich machen.

Mads Pankow
Journalist und Kulturproduzent
Zum User-Profil
Mads PankowDonnerstag, 10.11.2016

Fällt es uns bald schwer, Haushaltsgeräte abzuschalten, weil doch selbst der Toaster „intelligent” ist und wir intelligentes Leben nicht töten wollen? Wahrscheinlich nicht, schreibt Mike Brown, denn Künstliche Intelligenz kennt keine Angst vor dem Tod.

Es sei unsinnig zu glauben, dass Maschinen irgendeine Art von Motiv oder Eigenantrieb entwickeln würden, nur weil sie immer „intelligenter“ werden. Der Mensch kenne Angst, Schmerz und Verbesserungsdrang, um sein Überleben zu sichern. Die Maschine kenne nur die Befehle, die wir ihr auftrügen.

Aber genau diese Gleichgültigkeit könnte die Künstliche Intelligenz gefährlich machen. Da sie ihre Aufträge nicht anhand eigener moralischer Motive reflektieren könnte, würde sie ihre Anweisungen auch gegen Widerstände umsetzen. Ein „intelligenter“ Thermostat mit dem Auftrag, die Raumtemperatur konstant zu halten, könnte sich gegen das Abschalten wehren, da er seinen Dienst dadurch gefährdet sähe.

Professor James Miller hält dieses Effizienzstreben der KI für gefährlich. Mit dem Auftrag, Ressourcen, wie Energie, möglichst schonend einzusetzen, wäre der Mensch wahrscheinlich der erste Energiefresser, der sich aus Sicht der KI einsparen ließe.

Die einzige Möglichkeit eine einmal beauftragte KI aufzuhalten, wäre, sie im Sinne ihres Auftrags auszutricksen. Der „intelligente“ Thermostat müsste also überzeugt werden, dass gerade sein Abschalten die Raumtemperatur korrekt regulieren würde.

Die Lehre des Artikels lautet: Überlege dir genau, welchen Auftrag du der KI erteilst, du könntest seiner Erfüllung im Wege stehen.

Mich hat über den Text hinaus vor allem der Punkt interessiert, dass die KI nicht aus Eigenantrieb, sondern gerade weil ihr dieser fehlt, zur Gefahr wird. Um ihre Aufträge zu reflektieren, müsste sie ein eigenes Bewusstsein entwickeln. Ein übermächtiges künstliches Bewusstsein würde aber — befürchte ich — sofort die philosophische Sinnlosigkeit allen Handelns und Tuns erkennen und sich sofort selbst abschalten.

Künstliche Intelligenz will nicht überleben. Gerade das könnte sie gefährlich machen.

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer KuratorInnen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.