Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Mit Geistergesichtern gegen Deep Fakes

Jannis Brühl
Redakteur
Zum picker-Profil
Jannis BrühlFreitag, 05.07.2019

Deep Fakes gehören zu den digitalen Entwicklungen, die Menschen am meisten gruseln. Mit Machine-Learning-Technik kann das Gesicht eines Unbeteiligten (fast) täuschend echt in ein Video eingesetzt werden. Der Zuschauer denkt, der Unbeteiligte handele in dem Video. Staatschefs können bei einer Kriegserklärung gegen einen anderen Staat gezeigt werden, die sie nie vorgenommen haben. Menschen (meist Frauen) in Pornos geschnitten werden, um sie zu verleumden und zu erniedrigen.

Da von immer mehr Menschen Unmengen an Bildmaterial im Umlauf sind, stellt sich die Frage: Kann man Bilder Deep-Fake-sicher machen?

Einen möglichen Trick, das Problem zu lösen, haben die Forscher um Siwei Lyu von der State University of New York gefunden. Sie setzen nicht bei der Manipulationstechnik selbst an. Zugriff auf die Algorithmen der Bildfälscher zu haben, ist ja ein unrealistisches Szenario. Deshalb ist die Idee der Forscher, die Machine-Learning-Technik der Fälscher zu verwirren. Sie bauen visuellen "Lärm" in Fotos von Gesichtern ein, die sie schützen wollen. Sie durchsetzen das Bild mit zusätzlichen, für den Menschen unsichtbaren Gesichtern. Die sollen die Deep-Fake-Algorithmen vom echten Gesicht ablenken.

We have found a way to add specially designed noise to digital photographs or videos that are not visible to human eyes but can fool the face detection algorithms. It can conceal the pixel patterns that face detectors use to locate a face, and creates decoys that suggest there is a face where there is not one, like in a piece of the background or a square of a person’s clothing.

Wenn die Betreiber großer Plattformen diese Technik weiterentwickeln und klug einsetzen würden, könnte das zumindest ein Weg sein, Deep-Fake-Angriffe einzuschränken. 

Mit Geistergesichtern gegen Deep Fakes

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer KuratorInnen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.