Kanäle
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kuratoren aus Journalismus, Wissenschaft und Politik empfehlen
und kommentieren die besten Inhalte im Netz.

Du befindest dich im Kanal:

Medien und Gesellschaft

Frederik Fischer
Sub-, Pop- und Netzkulturkorrespondent
Zum piqer-Profil
piqer: Frederik Fischer
Donnerstag, 24.03.2016

Das Internet verwandelt Microsofts Flirtbot in ein rassistisches Arschloch - in nur 24 Stunden.

Jeder kennt das: Man ruft eine deutsche Service-Hotline an und am anderen Ende antwortet jemand in gebrochenem Deutsch (oder Englisch). Die Wahrscheinlichkeit, dass dieser jemand nicht in Deutschland, sondern in einem Niedriglohnland sitzt, ist nicht allzu klein. In wenigen Jahren geht es aber vielleicht gar nicht mehr darum, ob der Gesprächspartner sich in Deutschland oder Indien befindet, sondern darum, ob er überhaupt noch ein Mensch ist. 

Sogenannte Chatbots machen große Fortschritte dabei, menschliche Kommunikation zu imitieren. Die persönlichen Assistenten Siri und Cortana waren erste Vorstöße, die Nachrichten-App von Quartz verwandelte den Nachrichtenkonsum in eine Art SMS-Dialog und Microsofts Chatbot Tay bietet sich nun als Gesprächspartner für die Zielgruppe der 18 bis 24-jährigen an. 

Für Microsoft ist Tay ein Experiment im Bereich künstlicher Intelligenz. Tay startet mit der Persönlichkeit eines 19-jährigen Mädchens (oder dem, was sich die Entwickler darunter vorstellen) und einem Grundstock an festgelegten Kommunikationsstrategien. Jede Konversation soll Tay ein bisschen klüger machen. Aber Microsoft hat offensichtlich ein paar Schräubchen falsch eingestellt. Jedenfalls scheint Tay momentan jede Konversation in einen Flirt zu verwandeln. Was Tay aus den Reaktionen wohl lernt? Die Netzbewohner machen derweil, was sie am besten können: Sich lustig. Unter @tayandyou könnt ihr Tay Trost spenden.

UPDATE:

Das ging schnell: Schon nach einem Tag hat das Internet Tay in ein rassistisches Arschloch verwandelt. Well done, Internet!

Update II:

Microsoft hat das Projekt vor wenigen Stunden eingestellt. Was das über das Zusammenspiel von künstlicher und menschlicher "Intelligenz" aussagt? Wir werden darüber lesen...

P.S.

Als Rausschmeißer hier noch ein bisschen Daten-Grusel von der Website:

"Tay may use the data that you provide to search on your behalf. Tay may also use information you share with her to create a simple profile to personalize your experience."

Das Internet verwandelt Microsofts Flirtbot in ein rassistisches Arschloch - in nur 24 Stunden.
9
8 Stimmen
relevant?

Möchtest du kommentieren? Werde piqd Mitglied!

Kommentare 1
  1. Juliane Becker
    Juliane Becker · vor mehr als einem Jahr