Kanäle
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kuratoren aus Journalismus, Wissenschaft und Politik empfehlen
und kommentieren die besten Inhalte im Netz.

Du befindest dich im Kanal:

Zukunft und Arbeit

Mads Pankow
piqer: Mads Pankow
Dienstag, 15.11.2016

Alle haben Angst vor der künstlichen Intelligenz. Nur die KI-Forscher nicht.

Oren Etizioni, der Chef des Allen Institute for Artificial Intelligence ist sichtlich genervt vom Hype um den schwedischen Philosophen Nick Bostrom. Bostrom machte mit seinem Buch „Superintelligenz — Szenarien einer kommenden Revolution“ die große Runde durchs internationale Feuilleton und schürte dort Ängste vor einer übermächtigen Künstlichen Intelligenz, die sich gegen ihre Erschaffer wenden könnte.

Schon die Grundlage von Bostroms Argumentation stößt Etizioni auf. Dessen Auswertung verschiedener Umfragen zum Thema künstliche Intelligenz hält er methodisch für grenzwillkürlich. Bostroms Pointe: 10% der Befragten rechneten mit einer künstlichen Intelligenz bis 2022, 50% bis 2040 und 90% bis 2075.

Etizioni startet im März 2016 selbst eine Umfrage unter den Mitgliedern der American Association for Artificial Intelligence. Sein Ergebnis: Kein einziger der 80 KI-Forscher rechnet in den nächsten 10 Jahren mit einer künstlichen Superintelligenz, nur 7,5% erwarten eine solche in den nächsten 25 Jahren, weitere 67,5% irgendwann in ferner Zukunft. 25% glauben gar überhaupt nicht, dass Computer den Menschen jemals überholen werden.

Damit liegt die Künstliche Intelligenz für 92,5% der Forscher weit jenseits absehbarer Zeithorizonte.

Etizionis Artikel im MIT Technology Review provozierte umgehend eine Antwort der Professoren Allan Dafoe and Stuart Russell, von denen einer selbst an dessen Umfrage teilgenommen hatte. Dafoe und Russel argumentieren, dass Bostroms Warnung vor gefährlichen automatischen Systemen mit Etizionis Umfrage nicht wiederlegt sei.

Die Gefahr ginge nicht von künstlichen Superintelligenzen aus, sondern von den unvorhersehbaren und möglicherweise unumkehrbaren Folgen eines einmal eingeleiteten Optimierungsprozesses in Computersystemen. Dieses von Norbert Wiener 1960 formulierte Problem braucht keine KI, es braucht nur Maschinen, die sich mit ihrem Auftrag verselbstständigen und sich gegen Menschen wenden, die der Prozessoptimierung im Weg stehen könnten.

Alle haben Angst vor der künstlichen Intelligenz. Nur die KI-Forscher nicht.
8,8
6 Stimmen
relevant?

Möchtest du kommentieren? Werde piqd Mitglied für unter 4€ pro Monat!