Kanäle
Log-in registrieren
piqd verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Fundstücke

Christian Huberts
mächtiger™ Kulturwissenschaftler und Kulturjournalist
Zum piqer-Profil
piqer: Christian Huberts
Freitag, 06.05.2016

Feldforschung in der Arschloch-Community – können Spieleentwickler toxisches Verhalten verhindern?

League of Legends (LoL) ist ein absolutes Phänomen. Wer noch World of Warcraft für das große Ding im Gaming hält, kennt die spektakulären Statistiken von LoL nicht: 67 Millionen Menschen spielen die Multiplayer Online Battle Arena (MOBA) pro Monat, 27 Millionen davon spielen täglich und über 7,5 Million spielen gleichzeitig zur Rushhour des Spiels. Aber – und dafür ist LoL ebenso berüchtigt – es befindet sich unter dieser Masse an Usern auch eine beträchtliche Anzahl von Arschlöchern. Wer sich als Neuling an LoL heranwagt, muss zunächst einen Spießrutenlauf der Beleidigungen und Demütigungen absolvieren. Konstruktive Manöverkritik ist die Ausnahme. Wer sich als Frau, Person of Color oder LGBT zu erkennen gibt, hat es besonders schwer. Die Kombination aus Wettbewerbsausrichtung und (relativer) Anonymität schafft – wie auch in weiten Teilen des restlichen Internets – einen idealen Nährboden für toxisches Verhalten.

Nun hat das Entwicklerstudio Riot Games jedoch ein finanzielles Interesse daran, dass ihr Spiel von möglichst vielen Menschen gespielt wird und eine toxische Atmosphäre wirkt dem unmittelbar entgegen. Daher nehmen sie schon seit Jahren eine Pionierrolle ein und leisten sich ein eigenes Forschungsprogramm, das exklusiv die Kommunikation innerhalb von LoL untersucht und nach praktikablen Lösungen für das toxische Spielerverhalten sucht. Nature hat Jeffrey Lin – das neurowissenschaftliche Gesicht der Forschung – besucht und gibt einige faszinierende Einblick in die Methoden und Ergebnisse der sozialen Experimente innerhalb von LoL. Es zeigt sich, dass selbst einfache Eingriffe – wie etwa der Hinweis innerhalb des Spiels, das Beleidigungen die Performance von Teammitgliedern verschlechtern – verbales Fehlverhalten signifikant reduzieren können. Und noch besser: Riot Games stellen ihre Daten und Ergebnisse zur freien Verfügung. Das »Civil Engineering« von LoL könnte also demnächst ebenso in anderen toxischen Bereichen des Internets seine Anwendung finden.

Feldforschung in der Arschloch-Community – können Spieleentwickler toxisches Verhalten verhindern?
8
3 Stimmen
relevant?

Möchtest du kommentieren? Werde piqd Mitglied für unter 4€ pro Monat!