Kanäle
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kuratoren aus Journalismus, Wissenschaft und Politik empfehlen
und kommentieren die besten Inhalte im Netz.

Du befindest dich im Kanal:

Zukunft und Arbeit

Mads Pankow
piqer: Mads Pankow
Donnerstag, 10.11.2016

Künstliche Intelligenz will nicht überleben. Gerade das könnte sie gefährlich machen.

Fällt es uns bald schwer, Haushaltsgeräte abzuschalten, weil doch selbst der Toaster „intelligent” ist und wir intelligentes Leben nicht töten wollen? Wahrscheinlich nicht, schreibt Mike Brown, denn Künstliche Intelligenz kennt keine Angst vor dem Tod.

Es sei unsinnig zu glauben, dass Maschinen irgendeine Art von Motiv oder Eigenantrieb entwickeln würden, nur weil sie immer „intelligenter“ werden. Der Mensch kenne Angst, Schmerz und Verbesserungsdrang, um sein Überleben zu sichern. Die Maschine kenne nur die Befehle, die wir ihr auftrügen.

Aber genau diese Gleichgültigkeit könnte die Künstliche Intelligenz gefährlich machen. Da sie ihre Aufträge nicht anhand eigener moralischer Motive reflektieren könnte, würde sie ihre Anweisungen auch gegen Widerstände umsetzen. Ein „intelligenter“ Thermostat mit dem Auftrag, die Raumtemperatur konstant zu halten, könnte sich gegen das Abschalten wehren, da er seinen Dienst dadurch gefährdet sähe.

Professor James Miller hält dieses Effizienzstreben der KI für gefährlich. Mit dem Auftrag, Ressourcen, wie Energie, möglichst schonend einzusetzen, wäre der Mensch wahrscheinlich der erste Energiefresser, der sich aus Sicht der KI einsparen ließe.

Die einzige Möglichkeit eine einmal beauftragte KI aufzuhalten, wäre, sie im Sinne ihres Auftrags auszutricksen. Der „intelligente“ Thermostat müsste also überzeugt werden, dass gerade sein Abschalten die Raumtemperatur korrekt regulieren würde.

Die Lehre des Artikels lautet: Überlege dir genau, welchen Auftrag du der KI erteilst, du könntest seiner Erfüllung im Wege stehen.

Mich hat über den Text hinaus vor allem der Punkt interessiert, dass die KI nicht aus Eigenantrieb, sondern gerade weil ihr dieser fehlt, zur Gefahr wird. Um ihre Aufträge zu reflektieren, müsste sie ein eigenes Bewusstsein entwickeln. Ein übermächtiges künstliches Bewusstsein würde aber — befürchte ich — sofort die philosophische Sinnlosigkeit allen Handelns und Tuns erkennen und sich sofort selbst abschalten.

Künstliche Intelligenz will nicht überleben. Gerade das könnte sie gefährlich machen.
8,3
4 Stimmen
relevant?

Möchtest du kommentieren? Werde piqd Mitglied für unter 4€ pro Monat!