Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Eine Ethik mimetischer AI-Modelle

René Walter
Grafik-Designer, Blogger, Memetiker | goodinternet.substack.com

Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.

Zum picker-Profil
René WalterMittwoch, 27.07.2022

Interessanter Aufsatz von Wissenschaftlern der University of Toronto, der Cornell University und Microsoft Research über die ethischen Implikationen von künstlichen Intelligenzen, die Persönlichkeiten und Eigenschaften von Individuen simulieren. Die Forscher nennen solche AI-Systeme "Mimetic Models" und untersuchen in ihrem Paper ihre Auswirkungen auf unterschiedliche soziale Interaktionen wie Job-Interviews, Dating oder Performances in Kunst und Sport.

Die Forscher definieren ihre Mimetic Models als Algorithmen, die auf Verhaltensweisen einer spezifischen Person in einem spezifischen Wirkungsbereich trainiert wurde, etwa eine künstliche Intelligenz, die auf das Verhalten und die Sprache eines bestimmten Lehrers trainiert wurde und die nun in Online-Tutorials angewendet wird, oder eine KI, die auf die Musik eines bestimmten Künstlers trainiert wurde und nun neue Songs "in the style of" schreibt. Wie wirken sich Glitches in diesen Algorithmen auf den Ruf des Künstlers aus? Ist ein Unternehmen für Weiterbildung, das eine künstliche Intelligenz auf ihren beliebtesten und erfolgreichsten Lehrer trainiert, weiterhin auf die Arbeit des Reallife-Lehrers im Meatspace angewiesen?

Das Paper entwirft für diese Fragen ein Framework, das man auf weitere zukünftige Fragen der AI-Ethik im Kontext von Identität und Persönlichkeitsrechten anwenden kann. So unterscheiden die Wissenschaftler zwischen AI als "Mittel zum Zweck" (wenn ein Job-Bewerber etwa mithilfe einer Recruiter-AI für das spätere Vorstellungsgespräch mit dem echten Recruiter trainiert), AI als eigenständiger Zweck (wenn mimetische AI-Modelle als Ersatz für echte Menschen angewendet werden, man stelle sich etwa das Konzert der synthetischen ABBA-Version mit KI-Simulationen vor oder ein Schachduell zwischen dem einer KI-Version von Garry Kasparov circa 1985 und dem gegenwärtigen Reallife-Champion Magnus Carlsen) - oder als individuelles Modell zum Selbstgebrauch, das auf die eigene Persönlichkeit trainiert wurde (ein banales Beispiel wären Auto-Replys für E-Mail).

Für alle mimetischen AI-Modelle schlagen die Forscher vier Rollen vor: das Ziel der Persönlichkeits-Simulation, der Produzent des KI-Modells, der Operator, der die Anwendung des KI-Modells bereitstellt, und der Anwender. Und alle diese Rollen und unterschiedlichen Persönlichkeits-Simulationen werfen eigenständige ethische Fragen nach Reputation, Authentizität oder Fairness auf, die bereits heute Gültigkeit finden.

Meines Erachtens geht das Paper aber noch lange nicht weit genug. Bereits heute werden für Brain-Computer-Interfaces künstliche Intelligenzen auf neuronalen Daten trainiert, die die Gehirnaktivität des Anwenders simulieren und es damit paralysierten Patienten erlauben, mit ihrer Umwelt zu kommunizieren. Dies sind ebenfalls mimetische AI-Systeme, für die im vergangenen Jahr eine Declaration on the ethics of brain–computer interfaces and augment intelligence entworfen wurde und deren ethische Grundlagen seit wenigen Jahren erarbeitet werden.

Auch ist es absolut denkbar, dass mimetische AI-Modelle, die zur Eigenanwendung geschaffen wurden und mit der Außenwelt kommunizieren, als synthetische Daten für "Pirate Mimetic AI-Models" benutzt werden. Wenn eine zukünftige AI-Taylor Swift einen künstlichen Avatar in einem Nonstop-Loop auf Spotify performen lässt, kann ich diesen Output dazu benutzen, um eine eigene Version zu erschaffen, eine künstliche Taylor Swift zweiter Ordnung. Hätten solche AI-Identity-Warez Auswirkungen auf den Verkauf des neuen Albums der echten Taylor Swift? Wir werden es schon bald herausfinden: Schon heute verkauft die Künstlerin Holly virtuelle Besitzrechte an einem AI-Modell ihrer Stimme.

Mich erinnern Papers wie dieses an eine alte Story von Jet Lee, der Rolle als Seraph in "The Matrix" deshalb ablehnte, weil Warner darauf bestand, seine Martial Arts-Moves mit 3D-Kameras aufzuzeichnen und die Rechte an diesen Kung Fu-Moves für sich beanspruchen wollte. Im April erst starteten Schauspieler eine Kampagne namens "Stop AI Stealing the Show".

Die Fragen nach Persönlichkeit und individuellem künstlerischem Ausdruck begleiten uns bereits seit einer ganzen Weile und mit den sprunghaften technologischen Fortschritten grade in diesem Jahr mit Kunst-Simulations-AIs wie OpenAIs Dall-E 2 oder Googles Imagen und deren kommerzieller Anwendung wird ihre Beantwortung immer drängender. Wir haben nicht einmal ansatzweise Lösungen etwa für das Problem der Ausbeutung der gesamten Kunstgeschichte durch die AI-Modelle privater Konzerne gefunden, wie sie in den letzten Tagen vom legendären Animationskünstler David O'Reilly (Her, Mountain) aufgeworfen wurden, geschweige denn haben wir überhaupt genug Fragen nach Persönlichkeitsrechten in Zeiten künstlicher Personen und der Privatsphäre von neuronalen Daten aufgestellt.

Paper wie diese sind der Beginn in einer Debatte, die in den kommenden Jahren neben AI-Safety eine der drängendsten werden wird und die bislang vor allem in philosophischen Diskussionen um Science-Fiction-Filme wie Blade Runner geführt wurden. Mit dem allgegenwärtigen Siegeszug von Bildgeneratoren und KI-Systemen landen diese ehemals Spezialisten und Nerds vorbehaltenen Debatten mitten im Mainstream. Willkommen in der Zukunft.

Eine Ethik mimetischer AI-Modelle

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer KuratorInnen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.