Kanäle
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Christian Huberts
mächtiger™ Kulturwissenschaftler und Kulturjournalist
Zum piqer-Profil
piqer: Christian Huberts
Freitag, 13.04.2018

Software, die zuverlässig Fake-News erkennt? Nicht so einfach…

Erst vor wenigen Tagen hat Facebook-Chef Mark Zuckerberg vor dem US-Kongress seine Hoffnung geäußert, problematische Inhalte in Zukunft automatisiert erkennen zu können. Doch die dafür notwendige Software – die gemeinhin als Künstliche Intelligenz (KI) bezeichnet wird – hat mit einigen Hürden zu kämpfen, die Aaron Edell, ein Experte für maschinelles Lernen, für den Blog Towards Data Science kurz zusammenfasst.

Ausgangspunkt ist dabei sein Versuch, eine Software zu entwickeln, die mit ausreichend hoher Wahrscheinlichkeit eine Falschmeldung erkennen kann. Die Probleme beginnen bereits damit, überhaupt erst einmal zu definieren, was so genannte Fake-News überhaupt sind. Muss die Nachricht frei erfunden sein? Oder ist auch schon eine im Kern korrekte, aber in der Interpretation irreführende Information ein Fake? Und was ist mit Satire? Eine weitere Hürde stellt die Sammlung einer signifikanten Datengrundlage für den maschinellen Lernprozess dar. Diese manuelle Aufgabe führt Edell an persönliche Grenzen:

It was a Saturday when I started the long process of manually reading every single article before deciding what category it fell into and then awkwardly copying and pasting text into an increasingly unwieldy spreadsheet. There were some dark, disgusting, racist, and truly depraved things that I read that at first I tried to ignore. But after going through hundreds of these articles, they started to get to me. As my vision blurred and my interpretation of colors got all messed up, I began to get really depressed. […] This went on for a few days as I struggled to get enough examples for the model to be significant.

Doch selbst mit dieser Fleißarbeit erreicht seine Softwarelösung nur eine 70%-ige Trefferquote. Erst ein eher suboptimaler Kompromiss sorgt für ausreichende Funktionalität. Fakebox erkennt nun mit hoher Wahrscheinlichkeit (>95%) sachlich geschriebene Artikel und klassifiziert alle anderen – ex negativo – als Fake-News. Fazit: »to be taken with a grain of salt«.

Software, die zuverlässig Fake-News erkennt? Nicht so einfach…
8,6
5 Stimmen
relevant?

Möchtest du kommentieren? Dann werde jetzt Mitglied!