Drei Dinge, die Twitter sicherer machen könnten.

***English version after the cut***

Twitter ist ein ziemlich spezieller Ort, selbst für Social Media Maßstäbe. Was auf der einen Seite großes Engagement mobilisieren kann – wie z.B. bei #aufschrei – kann auf der anderen Seite schnell zu Shitstorms und massenhafter Belästigung führen – siehe auch #Gamergate. Was einen Shitstorm so überwältigend macht, ist die schiere Masse an Missbrauch, die auf eine Person einprasselt. Es werden immer wieder neue Accounts angelegt, nachdem andere geblockt wurden, nur, um Personen weiter Hass zu schicken. Der kaputte Mechanismus von Twitter selbst, User_innen zu melden oder Accounts löschen zu lassen, dürfte wohl so schnell nicht verbessert werden. Das Unternehmen selbst zeigte sich bisher unbeeindruckt von Bitten und Forderungen nach einem System, das Userinnen und Usern mehr Sicherheit vor Drohungen, Beleidigungen, Stalking oder Gewalt bieten könnte. Es ginge schließlich um die Freiheit der User_innen – und deswegen müsse es auch hohe Anforderungen geben, Accounts löschen zu lassen. Unausgesprochen bleibt natürlich, dass Twitter als Unternehmen nicht genügend Personal eingestellt hat und keine internen Strukturen, um der schieren Menge an Missbrauch und Belästigung, die sich auf Twitter täglich offenbart, Einhalt zu gebieten.

Wenn es also nicht um die User_innen per se geht, vielleicht könnte man die Sache anders anfassen? Hier ein paar Vorschläge, die von mir jetzt ins Blaue formuliert werden – ohne Check auf Machbarkeit oder ähnliches. Das überlasse ich dann denjenigen, die dafür bezahlt werden. Alternativ könnte man natürlich basierend darauf auch ein neues Soziales Netzwerk entwickeln. Ich würde es „Ohai“nennen und möchte gerne mind. 50% der Anteile bekommen.

Im folgenden also einige der Kernprobleme bei Twitter und wie man sie lösen könnte:

1. Überflutete Mentions
Während eines Shitstorms werden die Mentions überflutet mit Hass, Belästigung und Drohungen. Wird ein Account weggeblockt, werden neue kreiiert – bei #aufschrei gab es zum Beispiel einen Account, der sich immer wieder neu anmeldete, mit einer aufsteigenden Nummer am Namen hinten dran, der dann wieder geblockt werden musste. Auch bei #Gamergate findet das momentan in großem Maße statt: ein Großteil der Accounts, die Frauen wie Anita Sarkessian oder Zoe Quinn zehntausende von Replies schickten, sind eigens zu diesem Zweck geschaffene Accounts.
Lösung
: Einführung eines Features, dass die Möglichkeit bietet, keine Mentions von Accounts zu bekommen, die weniger als X Tage bestehen (entweder in 1 Tage, 30 Tage oder 90 Tage Schritten oder per frei wählbarer Zahl). Der Filter ist für jede/n Nutzer_in freiwillig an- und ausschaltbar, z.B. nach Bedarf in akuten Fällen. Die Hasswelle ist zwar noch da, kann aber von Betroffenen gut ausgeblendet werden. Die eigens dafür geschaffenen Accounts verlieren zum Teil ihren Anreiz.

2. Last der Einzelnen  
Für viele Aktivist_innen ist das traurige Realität: es gibt Accounts, die obwohl sie geblockt sind, immer wieder ihre Follower_innen in Konversationen verwickeln – und damit dann wieder in den Mentions auftauschen, weil Teile des eigenen Twitternetzwerks mit ihnen kommunizieren. Es gibt Fälle vorgetäuschter Persönlichkeiten, um das Vertrauen des Netzwerks zu gewinnen. Manche Accounts bewegen sich von Aktivist_in zu Aktivist_in und belästigen jeweils die Person, die gerade aktuell etwas zu sagen hat – und treffen immer wieder auf Menschen, die sich nicht bewusst sind, an wen sie da gerade geraten. Weiterhin liegt die Last des Blockens bei Einzelnen – selbst wenn schon dutzende Andere bestimmte Accounts geblockt haben, man selbst muss es doch immer wieder selbst tun. Belastend, wenn man sich dem täglich gegenüber sieht.
Lösung: Man kann andere Accounts zu „Trusted User_innen“ ernennen. Dies bedeutet, dass diese User_innen zu einem vertrauten Kreis von Personen gehört. Jeder Account kann eigene Trusted User frei wählen. Das wird insofern wichtig, dass man sich daraus eine wirkungsvolle – individuelle – Filterblase schaffen könnte. Ein Feature könnte ermöglichen, von Trusted User geblockte/gemutete Accounts automatisch mitzublocken/mitzumuten (auch hier: nach Bedarf, freiwillig, nicht automatisch für alle). Weiterhin könnten Trusted User andere Accounts als problematisch markieren. Vor dem Folgen/Replyen/Retweeten  dieser Accounts könnte dann eine Warnung erfolgen – so könnte man z.B. unterbinden, ahnungslose Follower_innen von gestalkten Personen in Konvos mit Stalkern zu verwickeln.

3. Kontrollverlust
Selbst wenn man Accounts geblockt, gemutet oder gefiltert hat – die Scheiße, die auf eigene Tweets geworfen wird, bleibt daran hängen. Man kann keine Replies löschen oder moderieren, und das, obwohl Twitter als Mikroblogging durchaus eine Form von Blogging darstellt und Kommentarmoderation eine der Grundfunktionen des Blogs ist. Besonders pikant ist dieser Mangel bei verleumderischen Replies oder kommentierten Retweets.
Lösung: Die User_innen bekommen die Macht über ihre Replies zurück, ähnlich wie bei Facebook oder G+, und können unerwünschte Kommentare in der Darstellung löschen – oder zumindest als problematisch kennzeichnen. A würde nicht die Tweets bei dem problematischen Account B löschen, sondern lediglich verhindern, dass sie dann auftauchen, wenn Dritte auf das Profil von A gehen und sich dort die Tweets ansehen. Auf der Seite von B würden sie noch zu sehen sein.

Was meint ihr? Was könnte man einführen, was habt ihr selbst vielleicht für Ideen?

Vielen Dank an tante und seine Hinweise, so z.B. auf diese Diskussion.

 

Titelbild: Screenshot. Haha. Das wollte ich schon immer mal schreiben.

  • julia

    Gute Ideen. Vor allem das mit den Trusted Usern. Ehrlich gesagt zu 1. würde es schon reichen, wenn eins einstellen könnte, dass per default nur mentions gesehen werden von Menschen denen eins selbst folgt (das ist ja ein feature, aber du musst es immer wieder einstellen) – das wäre schon mal eine Hilfe mMn. Und dann würde es auch helfen, wenn eingestellt werden könnte, dass Mentions von Accounts mit weniger als 100 oder so Follower_innen nicht angezeiget werden – das ist zwar elendig elitär, aber wäre auch eine Möglichkeit dieses neu geklickten Accounts auszublenden.

    • ja, das mit der Followerzahl habe ich auch schon öfter gehört. Allerdings finde ich das nicht unbedingt einen guten Indikator. Einige meiner liebsten Accounts auf Twitter haben Followerzahlen im niedrigen zweistelligen Bereich – und das seit Jahren. Klar, man könnte überlegen ob das trotzdem Sinn macht, und wenn die Kacke am Dampfen ist hilft das vielleicht dennoch. Ahhh ein schwieriges Thema.

      • julia

        Ja. Ist es. Aber das könnte vielleicht dann so priorisiert werden, dass Folgen das Ausblenden ausblendet :>

  • Hoffmann

    1. finde ich super (könnte auch (zusätzlich) über die Zahl der Follower gemacht werden)

    2. finde ich okey, könnte evtl. sogar über ein Plugin gelöst werden weil dabei ja nicht ständig die Timeline gefiltert werden muss (könnten wir also schon jetzt machen!)

    3. das gefällt mir nicht so gut, weil Twitter ja nicht mein eigener Vorgarten ist (aber auch nicht der von irgendwelchen Idioten) und ich denen deshalb kritische Anmerkungen geben kann und die mir auch. Ein blog ist halt meins (oder deins) und da müssen wir nicht alles freischalten, aber Twitter ist für mich eben „da draußen“™

    • Jorgen Schäfer

      Zu 3., man könnte das Konzept des „abhängens“ einführen. Bei Blogger kann man zum Beispiel auch Google+-Kommentare erlauben. Wenn jemand dann Mist kommentiert, kann der Blogauthor den Kommentar „entfernen“ – das G+-Posting dazu wird nicht gelöscht, es taucht nur nicht mehr im Blog auf, wohl aber noch im Stream des Posters.

      Das ginge bei Twitter genauso: Wenn sich jemand die Unterhaltung meiner Tweets anschaut, sieht diejenige die Antworten, die ich „entfernt“ habe nicht mehr. Diese Tweets sind aber noch in Twitter und können in der Timeline des jeweiligen Benutzers gefunden werden.

      Damit kann jeder weiterhin seinen Senf zugeben, aber man wird nicht mehr gezwungen dem dümmsten Senf eine Plattform zu geben.

      • so wars gemeint. ^^

      • steakhouse

        Halte ich für schwierig. Wenn ich als Dritter einen Tweet lese, interessieren micht die Kommentare zu dem Tweet. Nicht die Kommentare, die der Tweetersteller gerne hätte. Diese Kommentare finde ich aber praktisch nicht, wenn der Tweetersteller sie vom Tweet abkoppeln kann. Zumal so eine Funktion sehr anfällig für Missbrauch ist: Man stelle sich vor, von einem Account wird Unsinn gepostet, der mit vermeintlich seriösen Quellen hinterlegt wird. Aktuell haben Twitteruser die Möglichkeit, auch für Dritte sichtbar auf Probleme mit einem Tweet hinzuweisen. Diese Möglichkeit bestünde nach Einführung einer solchen Funktion nicht mehr.

  • Kinch

    Finde ich alles gut.

    Ich frag‘ mich auch, ob man maschinelles Lernen benutzen könnte, um Accounts zum Blocken zu empfehlen, ähnlich einem Spam-Filter, der selbstlernend ist. Ich kann man tatsächlich vorstellen, dass das sehr gut funktioniert.

    Wenn man Twitter nicht dazu bewegen kann, derartiges zu implementieren könnte man durchaus einen Client implementieren, der das macht.

  • slowtiger

    Zu 1: zusätzlich auch „Account besteht seit „, denn meist wird sich so ein initiales Reizdatum finden lassen.

  • Doc Sportello

    Ich glaube, der wichtigste Punkt ist Nr. 3: Das Problem von Twitter ist, dass andere die Diskussion kontrollieren (bzw kapern) können und man selbst machtlos bleibt. G+ und selbst Facebook bieten dabei bessere Kontrollmöglichkeiten. Mir wäre schon geholfen, wenn es eine „public blacklist“ geben würde, mit denen man ähnlich wie bei Emails Spammer ausschalten könnte. Aber Twitter ist an solchen Dingen offenbar eh nicht interessiert, die müssen derzeit vor allem Reichweite = Accountzahlen in die Höhe treiben – die neuen Geschäftszahlen sprechen für sich.

    • steakhouse

      Punkt Nummer 3 ist aber auch der Punkt, der potentiell am meisten Flurschaden anrichtet. Die ersten beiden Punkte sind relativ problemlos umsetzbar, weil sie primär den twitternden Nutzer selber betreffen und nur wenig Auswirkung auf Dritte haben. Der dritte Punkt dagegen schränkt auch dritte (unbeteiligte) Nutzer ein, weil er unter Umständen dazu führt, dass Tweets schwerer eingeschätzt werden können.
      Ich halte es ohnehin für schwierig zu behaupten, verleumderische Replies oder kommentierte Retweets würden dem Twitterer schaden, an den sie erfolgen und müssten daher auch vom Twitterer für Dritte moderiert werden können. Diese Aussage impliziert nämlich, das Dritte zu dämlich sind zu erkennen, dass Replys auch Unsinn enthalten können. Soviel Intelligenz traue ich dem durchschnittlichen Twitteruser aber zu.