Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Medien und Gesellschaft

Wie Israels KI-System 'Lavender' Gaza bombardiert

René Walter
Grafik-Designer, Blogger, Memetiker | goodinternet.substack.com

Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.

Zum picker-Profil
René WalterMontag, 22.04.2024

Im Januar schrieb ich hier über den sich abzeichnenden AI-Military-Complex und bereits dort erwähnte ich auch ein in diesem Gaza-Krieg erstmals angewandtes AI-basiertes Zielsystem der israelischen Armee. Das "Gospel" genannte AI-System analysiert alle verfügbaren Daten, "einschließlich 'Drohnenaufnahmen, abgefangene Kommunikationen, Überwachungsdaten und Informationen aus der Beobachtung von Bewegungen und Verhaltensmustern von Einzelpersonen und großen Gruppen'. Damit konnte der IDF die Zahl der generierten Ziele von 50 pro Jahr auf 100 pro Tag erhöhen, bei denen es sich um 'Personen, die autorisiert sind, ermordet zu werden', handelt."

Nun hat das palästinensisch-israelische +972 Magazine einen neuen Bericht über weitere Bestandteile des israelischen AI-Systems veröffentlicht: "Lavender" und "Where's Daddy" wurden grade in den Anfangstagen des Krieges ausgiebig genutzt, nicht nur um tausende von neuen Zielen für Bombardierungen festzulegen, sondern auch um automatisch den Aufenthaltsort der einzelnen Zielpersonen zu verfolgen und einen Bombenangriff zu starten, sobald die Menschen ihre Häuser betraten.

Desweiteren bestätigt der Bericht Befürchtungen, dass AI-basierten Zielsystemen von Soldaten und Entscheidern zu viel Vertrauen entgegengebracht wird und eine technologisch bedingte Erosion von ethischen Bedenken einsetzt: Grade in den frühen Phasen des Kriegs hat die Armee anscheinend praktisch alle ai-generierten "Kill Lists" von "Lavender" durchgewunken, ohne die Daten zu prüfen oder die Entscheidungen der Maschine zu evaluieren. Menschliche Entscheider hätten nur noch als "Abstempler" für Maschinenentscheidungen gedient, obwohl die Armee wusste, dass das Zielerfassungssystem eine Fehlerquote von bis zu 10% aufweist.

Im Januar schrieb ich dazu: "Eine Studie von 2022 ergab, dass Menschen KI-Systemen in ethischen Entscheidungsprozessen übermäßig vertrauen, während eine wissenschaftliche Vorveröffentlichung aus dem Oktober 2023 eine "starke Neigung zum übermäßigen Vertrauen in unzuverlässige KI bei lebensentscheidenden Entscheidungen unter unsicheren Umständen" feststellte, in einer Reihe von Experimenten, die "Vertrauen in die Empfehlungen künstlicher Agenten bezüglich Entscheidungen zum Töten" untersuchten."

Es ist die Banalität des Bösen, aktualisiert um Künstliche Intelligenz und Algorithmen. Waren es bei Hannah Arendt noch Sprache, Bürokratie und Befehlskette, die das Böse vor der Selbstwahrnehmung der Mörder verschleierte, ist es im Fall des Israel-Hamas-Krieges eine Auslagerung der Entscheidung selbst an eine synthetische "Kill List", die nur noch halbformal abgenickt wird, um den Mord an der Zivilbevölkerung auch vor sich selbst zu rechtfertigen.

Israels Vergeltungskrieg für den Überfall der Hamas und das Massaker am 7. Oktober kostete bislang 34.000 Menschen das Leben, davon 33.091 auf Seiten der Palästinenser, rund 70% der palästinensischen Todesopfer sind Frauen und Kinder. Fehlerquote "circa 10%".

Wie Israels KI-System 'Lavender' Gaza bombardiert

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Medien und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer KuratorInnen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.