Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Medien und Gesellschaft

Das Internet verwandelt Microsofts Flirtbot in ein rassistisches Arschloch - in nur 24 Stunden.

Frederik Fischer
Mitgründer KoDorf / Summer of Pioneers - Neues Leben und Arbeiten auf dem Land
Zum User-Profil
Frederik FischerDonnerstag, 24.03.2016

Jeder kennt das: Man ruft eine deutsche Service-Hotline an und am anderen Ende antwortet jemand in gebrochenem Deutsch (oder Englisch). Die Wahrscheinlichkeit, dass dieser jemand nicht in Deutschland, sondern in einem Niedriglohnland sitzt, ist nicht allzu klein. In wenigen Jahren geht es aber vielleicht gar nicht mehr darum, ob der Gesprächspartner sich in Deutschland oder Indien befindet, sondern darum, ob er überhaupt noch ein Mensch ist. 

Sogenannte Chatbots machen große Fortschritte dabei, menschliche Kommunikation zu imitieren. Die persönlichen Assistenten Siri und Cortana waren erste Vorstöße, die Nachrichten-App von Quartz verwandelte den Nachrichtenkonsum in eine Art SMS-Dialog und Microsofts Chatbot Tay bietet sich nun als Gesprächspartner für die Zielgruppe der 18 bis 24-jährigen an. 

Für Microsoft ist Tay ein Experiment im Bereich künstlicher Intelligenz. Tay startet mit der Persönlichkeit eines 19-jährigen Mädchens (oder dem, was sich die Entwickler darunter vorstellen) und einem Grundstock an festgelegten Kommunikationsstrategien. Jede Konversation soll Tay ein bisschen klüger machen. Aber Microsoft hat offensichtlich ein paar Schräubchen falsch eingestellt. Jedenfalls scheint Tay momentan jede Konversation in einen Flirt zu verwandeln. Was Tay aus den Reaktionen wohl lernt? Die Netzbewohner machen derweil, was sie am besten können: Sich lustig. Unter @tayandyou könnt ihr Tay Trost spenden.


UPDATE:

Das ging schnell: Schon nach einem Tag hat das Internet Tay in ein rassistisches Arschloch verwandelt. Well done, Internet!

Update II:

Microsoft hat das Projekt vor wenigen Stunden eingestellt. Was das über das Zusammenspiel von künstlicher und menschlicher "Intelligenz" aussagt? Wir werden darüber lesen...

P.S.

Als Rausschmeißer hier noch ein bisschen Daten-Grusel von der Website:

"Tay may use the data that you provide to search on your behalf. Tay may also use information you share with her to create a simple profile to personalize your experience."

Das Internet verwandelt Microsofts Flirtbot in ein rassistisches Arschloch - in nur 24 Stunden.

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Kommentare 1
  1. Juliane Becker

Bleib immer informiert! Hier gibt's den Kanal Medien und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer KuratorInnen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.