***English version after the cut***
Twitter ist ein ziemlich spezieller Ort, selbst für Social Media Maßstäbe. Was auf der einen Seite großes Engagement mobilisieren kann - wie z.B. bei #aufschrei - kann auf der anderen Seite schnell zu Shitstorms und massenhafter Belästigung führen - siehe auch #Gamergate. Was einen Shitstorm so überwältigend macht, ist die schiere Masse an Missbrauch, die auf eine Person einprasselt. Es werden immer wieder neue Accounts angelegt, nachdem andere geblockt wurden, nur, um Personen weiter Hass zu schicken. Der kaputte Mechanismus von Twitter selbst, User_innen zu melden oder Accounts löschen zu lassen, dürfte wohl so schnell nicht verbessert werden. Das Unternehmen selbst zeigte sich bisher unbeeindruckt von Bitten und Forderungen nach einem System, das Userinnen und Usern mehr Sicherheit vor Drohungen, Beleidigungen, Stalking oder Gewalt bieten könnte. Es ginge schließlich um die Freiheit der User_innen - und deswegen müsse es auch hohe Anforderungen geben, Accounts löschen zu lassen. Unausgesprochen bleibt natürlich, dass Twitter als Unternehmen nicht genügend Personal eingestellt hat und keine internen Strukturen, um der schieren Menge an Missbrauch und Belästigung, die sich auf Twitter täglich offenbart, Einhalt zu gebieten.
Wenn es also nicht um die User_innen per se geht, vielleicht könnte man die Sache anders anfassen? Hier ein paar Vorschläge, die von mir jetzt ins Blaue formuliert werden - ohne Check auf Machbarkeit oder ähnliches. Das überlasse ich dann denjenigen, die dafür bezahlt werden. Alternativ könnte man natürlich basierend darauf auch ein neues Soziales Netzwerk entwickeln. Ich würde es „Ohai“nennen und möchte gerne mind. 50% der Anteile bekommen.
Im folgenden also einige der Kernprobleme bei Twitter und wie man sie lösen könnte:
1. Überflutete Mentions
Während eines Shitstorms werden die Mentions überflutet mit Hass, Belästigung und Drohungen. Wird ein Account weggeblockt, werden neue kreiiert - bei #aufschrei gab es zum Beispiel einen Account, der sich immer wieder neu anmeldete, mit einer aufsteigenden Nummer am Namen hinten dran, der dann wieder geblockt werden musste. Auch bei #Gamergate findet das momentan in großem Maße statt: ein Großteil der Accounts, die Frauen wie Anita Sarkessian oder Zoe Quinn zehntausende von Replies schickten, sind eigens zu diesem Zweck geschaffene Accounts.
Lösung: Einführung eines Features, dass die Möglichkeit bietet, keine Mentions von Accounts zu bekommen, die weniger als X Tage bestehen (entweder in 1 Tage, 30 Tage oder 90 Tage Schritten oder per frei wählbarer Zahl). Der Filter ist für jede/n Nutzer_in freiwillig an- und ausschaltbar, z.B. nach Bedarf in akuten Fällen. Die Hasswelle ist zwar noch da, kann aber von Betroffenen gut ausgeblendet werden. Die eigens dafür geschaffenen Accounts verlieren zum Teil ihren Anreiz.
2. Last der Einzelnen
Für viele Aktivist_innen ist das traurige Realität: es gibt Accounts, die obwohl sie geblockt sind, immer wieder ihre Follower_innen in Konversationen verwickeln - und damit dann wieder in den Mentions auftauschen, weil Teile des eigenen Twitternetzwerks mit ihnen kommunizieren. Es gibt Fälle vorgetäuschter Persönlichkeiten, um das Vertrauen des Netzwerks zu gewinnen. Manche Accounts bewegen sich von Aktivist_in zu Aktivist_in und belästigen jeweils die Person, die gerade aktuell etwas zu sagen hat - und treffen immer wieder auf Menschen, die sich nicht bewusst sind, an wen sie da gerade geraten. Weiterhin liegt die Last des Blockens bei Einzelnen - selbst wenn schon dutzende Andere bestimmte Accounts geblockt haben, man selbst muss es doch immer wieder selbst tun. Belastend, wenn man sich dem täglich gegenüber sieht.
Lösung: Man kann andere Accounts zu „Trusted User_innen“ ernennen. Dies bedeutet, dass diese User_innen zu einem vertrauten Kreis von Personen gehört. Jeder Account kann eigene Trusted User frei wählen. Das wird insofern wichtig, dass man sich daraus eine wirkungsvolle - individuelle - Filterblase schaffen könnte. Ein Feature könnte ermöglichen, von Trusted User geblockte/gemutete Accounts automatisch mitzublocken/mitzumuten (auch hier: nach Bedarf, freiwillig, nicht automatisch für alle). Weiterhin könnten Trusted User andere Accounts als problematisch markieren. Vor dem Folgen/Replyen/Retweeten dieser Accounts könnte dann eine Warnung erfolgen - so könnte man z.B. unterbinden, ahnungslose Follower_innen von gestalkten Personen in Konvos mit Stalkern zu verwickeln.
3. Kontrollverlust
Selbst wenn man Accounts geblockt, gemutet oder gefiltert hat - die Scheiße, die auf eigene Tweets geworfen wird, bleibt daran hängen. Man kann keine Replies löschen oder moderieren, und das, obwohl Twitter als Mikroblogging durchaus eine Form von Blogging darstellt und Kommentarmoderation eine der Grundfunktionen des Blogs ist. Besonders pikant ist dieser Mangel bei verleumderischen Replies oder kommentierten Retweets.
Lösung: Die User_innen bekommen die Macht über ihre Replies zurück, ähnlich wie bei Facebook oder G+, und können unerwünschte Kommentare in der Darstellung löschen - oder zumindest als problematisch kennzeichnen. A würde nicht die Tweets bei dem problematischen Account B löschen, sondern lediglich verhindern, dass sie dann auftauchen, wenn Dritte auf das Profil von A gehen und sich dort die Tweets ansehen. Auf der Seite von B würden sie noch zu sehen sein.
Was meint ihr? Was könnte man einführen, was habt ihr selbst vielleicht für Ideen?
Vielen Dank an tante und seine Hinweise, so z.B. auf diese Diskussion.
Titelbild: Screenshot. Haha. Das wollte ich schon immer mal schreiben.