Hack Day for Good: Auf der Suche nach technischen Lösungen gegen Hate Speech
Wir brauchen praktische Lösungen, um gesellschaftliches Engagement zu schützen
Raul Krauthausen engagiert sich für Inklusion. Der Aktivismus ist sein Beruf und dieses Engagement ist wertvoll für unsere Gesellschaft. Leider sehen das nicht alle so. Seine Bekanntheit und die damit verbundenen Themen locken leider seit zwei bis drei Jahren auch zunehmend Menschen an, die meinen, sie müssten ihn diffamieren, ihn bedrohen. Leider geht es nicht nur ihm so, sondern vielen anderen Engagierten auch. Glücklicherweise gibt es zunehmend Engagement gegen Hate Speech. Zum Beispiel in Form der Gegenrede-Community #ichbinhier. Praktische Hilfestellungen für Betroffene bieten u.a. auch die Amadeu Antonio Stiftung oder das No Hate Speech Movement.
Dabei ist eine Unterscheidung in Hasskommentare auf öffentlichen Seiten und permanentem Hass gegen Einzelne wichtig. Gegenrede auf öffentlichen Seiten nimmt zu. Aktivist*innen, die sich für eine offene Gesellschaft einsetzen, sind mit dem Hass auf ihren Kanälen jedoch oft allein. Fast täglich erleben sie Angriffe auf ihre Person. Sie sollen mundtot gemacht werden. Vieles davon ist organisiert, einiges kommt von Einzelpersonen. Gegen den Hass vorzugehen, würde für sie bedeuten, alle eingehenden Kommentare und Nachrichten zu lesen, sie zu dokumentieren, zu blockieren, zu melden. Das übersteigt kapazitäre und psychologische Grenzen eines Menschen. Allein werden sie mit dem Hass nicht fertig.
Hassrede ist für mich Rassistisches, Menschenfeindliches, Diskriminierendes. Menschen, die mit Schaum vor dem Mund niederste Emotionen über einen anderen Menschen ergießen und ihn entmenschlichen.
*Um die genannten Personen zu schützen, verwenden wir hier keine personenbezogenen Zitate.
Wir brauchen mehr Ansätze auf technischer und juristischer Ebene, um gesellschaftliches Engagement zu schützen. Mit einem Fokus auf technische Ansätze haben wir deswegen im Juni 2018 unseren “Hack Day for Good” veranstaltet. Wir können nicht auf Lösungen der großen Tech-Konzerne warten, sondern müssen selbst aktiv werden. Deshalb begaben wir uns auf die Suche nach kleineren Programmierungen und praktischen Ansätzen.
Gute Ideen haben jene, die täglich Hass und Hetze erfahren
Ihr Beruf ist der Aktivismus für Themen einer offenen Gesellschaft - Inklusion, Feminismus, Homosexualität, Religionsvielfalt, Antirassismus. Ihr Engagement bringt unsere Gesellschaft voran. Leider sind sie dadurch unfreiwillig Expert*innen für den Umgang mit Hate Speech geworden.
Irgendwann gehört es halt einfach dazu und das ist eine richtig traurige Wahrheit, dass man sich daran ‘gewöhnt’, (…) dass immer wieder Hassrede kommt.
Wie sie trotzdem aktiv bleiben und welche Lösungen sie für sich gefunden haben, erfahren wir in Interviews mit: Raul Krauthausen, Kübra Gümüşay, Jasna Strick, Tarik Tesfu und Nhi Le. In den Gesprächen begegnen uns schlaue Ansätze, die aus unserer Sicht überaus relevant für andere Betroffene und jene sind, die aktiv gegen Hate Speech vorgehen wollen.
Die Betroffenenperspektive ist oft nicht sichtbar. Oder Leuten fehlt der Bezug.
Daher unser Appell an Facebook, Twitter, Google, Politiker*innen, Jurist*innen und andere: Involviert Betroffene! Arbeitet mit ihnen zusammen an konkreten Lösungen!
Unser Hack Day soll ein kleiner Anfang davon sein. Aus den Interviews haben wir fünf Themencluster identifiziert, in denen ganz akut mehr passieren muss.
1. Die Infrastruktur der sozialen Netzwerke
Wir alle nutzen die Infrastruktur der sozialen Netzwerke, aber die Art und Weise der Nutzung hat sich verändert. Die geschaffenen Strukturen werden missbraucht, um Hass zu verbreiten. Die Betreiber der Plattformen reagieren zu spät und inkonsequent. Die Folgen der langjährigen Untätigkeit seitens der Plattformen wurden in allen Gesprächen thematisiert. Neben unzureichenden und ständig wechselnden Meldemöglichkeiten, wurden außerdem drei Unzulänglichkeiten angebracht, auf die wir hier genauer eingehen.
a) Algorithmen fördern destruktive Diskurskultur
Die Algorithmen auf den sozialen Netzwerken sind so programmiert, das automatisch jene Kommentare nach oben wandern, die viel Aufmerksamkeit bekommen. Wenn sich dahinter die koordinierte Verbreitung von Hass verbirgt, dann wird das zum Problem. #ichbinhier nutzt genau diesen Mechanismus, um organisiert Gegenrede zu betreiben. Ist man aber eine Einzelperson, die keine Unterstützung hat, dann übernehmen Nutzer*innen mit menschenfeindlichen Ansichten die Kommentarspalte der eigenen öffentlichen Seite. Davon abgesehen, ziehen sich Plattformen durch Gegenrede, die von unabhängigen Engagierten geleistet wird, aus der Verantwortung.
Natürlich gab es vorher auch schon Hass, Gewalt und Rassismus, aber es ist so, dass das Internet ein Inkubator dafür geworden ist, wo diese Menschen einfach so tun können als seien sie viel mehr. Dadurch können sie eine Diskursverschiebung auf gesamtgesellschaftliche Themen vornehmen. (…) Die Plattformen nehmen ihre strukturelle Verantwortung nicht an. Sie haben einen Algorithmus kreiert, der eine destruktive Diskurskultur voraussetzt und der Menschen zu so einer Kultur erzieht.
Die gegenwärtigen Algorithmen sollten also in der Lage sein, schneller zu lernen, welche Inhalte sich destruktiv auf Diskussionen und Personen auswirken und diese entsprechend geringer priorisieren – vorausgesetzt, dass nicht nur Profit das Ziel der Plattformen ist, sondern sie auch aktiv eine positive Netzkultur stärken wollen. Hier können wir als Zivilgesellschaft kaum etwas tun. Die Algorithmen können nur die sozialen Netzwerke selbst optimieren. Auch mehr Transparenz zu den Spielweisen der Algorithmen ist wünschenswert.
b) Hausrecht: Die Möglichkeit, Debatten auf der eigenen Seite zu beenden
Viele Aktivist*innen haben als Personen des öffentlichen Lebens neben einem privaten Profil, auch eine öffentliche Facebook-Seite. Jedoch haben sie kein Social-Media-Team, das eingehende Nachrichten und Kommentare moderiert. Gleichwohl ist es bei öffentlichen Seiten nicht möglich, die Kommentarfunktion zu deaktivieren. Das geht nur bei privaten Profilen oder in Gruppen. Auf Seiten von Personen des öffentlichen Lebens oder auch auf Medienseiten können Nutzer*innen, die Destruktives im Sinn haben, wüten wie es ihnen passt. Bei unserem Hack Day diskutierten wir diesen Sachverhalt unter “Hausrecht” und suchten nach einer Lösung, auch bei öffentlichen Seiten, die Kommentarfunktion deaktivieren zu können bzw. auf anderen Plattformen nach einer Möglichkeit, um Diskussionen zu beenden.
Bei meinem Profil habe ich ‘Hausrecht’. Da hätte ich gern Einfluss darüber, wer meinen Namen benutzen kann. Wenn jemand mein Twitter-Handle missbrauchen will und 1000 Leute auf mich ansetzt, dann zerstört das meinen Feed. Es geht darum, dass man eine Art Privatsphäre einstellen kann. Ich sehe die Plattformen in der Verantwortung, dass ich durch dieses ‘Hausrecht’ die Möglichkeit habe, Kommentare zu schließen, die Debatte zu beenden, so wie aus einem Raum gehen.
Dieser Ansatz ist sowohl für Personen des öffentlichen Lebens als auch Seiten großer Medien relevant. Nach einer Weile ist in Diskussionen das Wesentliche gesagt, alle Argumente wurden angebracht. Es gibt nichts Neues mehr hinzuzufügen. Auch im Falle eines Shitstorms, der sich ab einer bestimmten Größe nicht mehr moderieren läßt, kann eine solche Funktion, also das Deaktivieren der Kommentarfunktion nützlich sein.
c) Opferschutz: Plattformen brauchen Awareness-Teams
Der Umgang mit Opfern von Hate Speech durch Plattformen wurde in den Interviews scharf kritisiert. Zum einen gäbe es zu wenig Personal. Das führe dazu, dass Meldungen aus Zeitnot oft weggeklickt und ignoriert werden. Die Betroffenen fühlen sich nicht ernst genommen und noch schlimmer: allein gelassen. Wenn beispielsweise bei Gewaltandrohungen die Rückmeldung kommt, dass das Verhalten nicht gegen die Richtlinien der Plattformen verstoße, dann ist das fahrlässig.
Es ist gewollt, dass es sehr einfach ist, jede Sekunde viel Content hochzuladen. Aber es ist nicht gewollt, dass es einfach und schnell geht, den Content wieder runter zu nehmen.
Dabei kennen Betroffene die Profile der Täter*innen oft recht gut, weil oft die gleichen Personen nach wiederholtem Muster handeln. Es sollte also für Angegriffene bessere Möglichkeiten geben, jene herauszufiltern, die sie bedrohen. Oft ist es aber leider sogar so, dass in Notfällen (z.B. bei einem Doxxing-Angriff) kaum jemand erreichbar ist. Diesbezüglich diskutierten wir den Gedanken von Awareness-Teams bei den Plattform-Betreibern. Das sollten Expert*innen sein, die betroffene Personen des öffentlichen Lebens und somit auch Aktivist*innen kennen, um so im Falle eines Angriffs schneller handeln zu können.
2. Juristisches Vorgehen gegen Hate Speech
Hate Speech ist kein Strafrechtsbestand und das kontroverse Netzwerkdurchsetzungsgesetz (NetzDG) hat wenig Besserung für diejenigen gebracht, die täglich von Hass im Netz betroffen sind. Es fehlen direkte, abschreckende Konsequenzen für diejenigen, die Hass verbreiten, obwohl zunehmend Menschen darunter leiden. Selbst strafrechtlich relevante Fälle von Hate Speech werden häufig nicht zur Anzeige gebracht, da es voraussetzen würde, dass die Betroffenen die Zeit und Kraft aufbringen, sich durch hunderte oder tausende Kommentare zu arbeiten. Die angestoßenen Prozesse enden oft im Nichts oder dauern viel zu lang. Dabei erfordert es Mut und Stärke, überhaupt diesen Schritt zu gehen. Nicht selten kommt es vor, das Opfer bei Polizeidienststellen abgewiesen werden und sich nicht ernst genommen fühlen.
Wir brauchen Maßnahmen, bei denen es genauso strafbar ist, ein Hakenkreuz auf Twitter zu verbreiten, wie ein Hakenkreuz an eine Hauswand zu malen. Solange das juristisch ungleich behandelt wird, haben wir das Gefühl, dass das Internet ein rechtsfreier Raum ist.
In Anbetracht dessen, dass organisierte Hassrede leider zum festen Bestandteil digitaler Kommunikation geworden ist, brauchen wir dringend abschreckende Konsequenzen. Mit einer aktuellen Kampagne fordern wir gemeinsam mit Campact unter anderem vereinfachte Klagemöglichkeiten, lokale Opferberatungsstellen, zentrale Ermittlungsstellen bei den Staatanwaltschaften und fachkundiges Personal auf den Polizeidienststellen.
Im Rahmen unseres Hack Days diskutierten wir die Idee eines automatisierten Anzeige-Bots, der mit einfachen Ja/Nein-Fragen bei der Identifikation und den ersten Schritten einer Anzeige behilflich sein kann. Eine weitere Idee ist ein Browser-Plugin, mit dem ohne viel Aufwand rechtskräftige Screenshots möglich sind.
3. Viel Hass, aber wenig Austausch untereinander
Obwohl es leider viele gibt, die mit einem permanentem Grundrauschen von Hass konfrontiert sind oder bereits persönlich einen oder sogar viele Shitstorm(s) erfahren haben, gibt es zu wenig Austausch darüber. Dabei sind gerade persönliche Empfehlungen das, was in einer solchen Situation eine große Unterstützung bedeuten kann. Für viele wäre es gut, eine zentrale Anlaufstelle zu haben, an die man sich für akute Hilfe wenden kann. Neben Erste-Hilfe-Maßnahmen könnten auch mittel- und langfristige Strategien ausgetauscht werden.
Es tut einfach unheimlich gut, sich darüber mal austauschen zu können, dass man dieses Päckchen nicht alleine trägt. Oft denkt man: Ich muss jetzt mit dem Problem alleine klar kommen.
Genau hier setzt Fearless Democracy mit einem neuen Projekt an. Die derzeit entstehende Plattform Hate Aid geht auf akute Fragen ein, bietet konkrete Hilfestellung und macht Erfahrungsberichte sichtbar.
4. Wo ist die Solidarität im Netz?
Likes, Follower*innen, Kommentare - positive Reaktionen auf ihr Engagement erhalten Aktivist*innen von vielen Seiten. Aber was passiert, wenn sie zur Zielscheibe koordinierten Hasses werden? Hier fehlt es an solidarischer Anteilnahme derer, die sonst ihre Meinung teilen. Wenn sich Menschen zusammenrotten und auf eine Person stürzen, um sie fertig zu machen, müsste dann nicht auch das Gegenteil funktionieren? Wäre es nicht möglich, dass viele Menschen dieser Person Beistand leisten, Hass dokumentieren, melden, Gegenrede üben? In der Theorie ja, aber in der Realität fühlen sich Opfer von Hass oft allein gelassen.
Es ist sehr einfach, einzelne abzuschießen, aber wenn sich 20 andere dazu stellen, ist es nicht mehr so einfach. Jeder Einzelne ist leicht zu brechen, aber wenn man zusammen steht, ist es sehr viel schwerer.
In den Interviews wurde als Hauptproblem ausgemacht, dass die Mitlesenden thematisch nicht so tief drin stecken, um immer angemessen argumentieren zu können. Deswegen wissen sie oft nicht, wie sie sich solidarisch zeigen sollen.
Von einer Aktivistin hörten wir, dass sie für ihr persönliches Umfeld eine Liste mit FAQs angelegt hat, die auf Hauptargumente, die gegen sie vorgebracht werden, eingehen. So könnten sich auch Follower*innen in Diskussionen einschalten und personenbezogen Gegenrede leisten. Ein cleverer und pragmatischer Ansatz, wie wir finden. Was könnte außerdem funktionieren?
Wie können wir Solidarität im digitalen Raum einfach und niedrigschwellig organisieren und dabei trotzdem effektiv bleiben? Diese Frage müssen wir als Zivilgesellschaft im Zuge der Digitalisierung und damit verbundenem koordiniertem Hass diskutieren.
5. Analyse von Hate Speech
Ein Vorteil von Hassrede im Netz sind die verfügbaren Datenmengen. Profile der Autor*innen, die Inhalte, ihre Kanäle und wiederkehrende Themen sind bekannt. Eigentlich eine gute Ausgangslage, um aktiv und strafrechtlich gegen gesetzwidrige und menschenverachtende Inhalte vorzugehen. In unseren Gesprächen kamen wir zu dem Schluss, dass die Analyse von Hate Speech trotzdem noch zu wenig stattfindet. Datenanalyst*innen wie das Team von Tracemap oder auch Fearless Democracy beschäftigen sich damit. Jedoch kann dies nicht die alleinige Aufgabe der Zivilgesellschaft sein. Ebenso wenig können betroffene Aktivist*innen oder Journalist*innen diese Daten analysieren. Dabei haben sie leider sogar oft einen guten Überblick, wer ihre Hater*innen sind. Manche setzen Social Media Monitoring Tools ein, um die Fülle der Kommentare zu überblicken, zu managen, ihre Autor*innen zu blockieren.
Das sind ja immer die gleichen Leute, die hassen (…). Was haben alle gemeinsam? Wer sind die Leithammel, denen alle folgen? Wen muss ich blocken? Diese Verantwortung sollte man nicht denen geben, die gehasst werden, sondern Polizei, Staatsanwaltschaft, Facebook und Twitter könnten solche Analysen fahren. Da reden wir auch über Bots und automatisierte Systeme, die man erkennen kann, wenn man will. (…) Vielleicht ist es auch eine Aufgabe des Verfassungsschutzes. Wenn es um die Verbreitung von Nazisymbolen und Hass gegen Minderheiten geht, kann man die Frage stellen, wer dahinter steckt.
Die Analyse der Strukturen hinter dem koordinierten Hass ist fundamental, um Lösungen zu entwickeln. Deswegen müssen hier unbedingt mehr Instanzen wie die Polizei oder der Verfassungsschutz aktiv werden. Die gewonnenen Erkenntnisse sollten dabei nicht direkt veröffentlicht werden, sondern bestenfalls erst, wenn Konsequenzen erfolgt sind, z.B. Täter*innen verhaftet wurden.
Zusammenfassung: Die Ergebnisse unseres Hack Days
Die geschilderten Themen diskutierten wir intensiv während unseres Hack Days. Die daraus entstandenen Ideen haben wir gesammelt, bewertet und in vier konkrete Prototypen übersetzt, über die Belltower News bereits berichtete.
1. Kommentarfunktion deaktivieren
Unter dem Namen “Hate Control” möchte #ichbinhier mit unserer Unterstützung ein Tool realisieren, dass es Betreibern von Facebook-Seiten ermöglicht, die Kommentarspalten ihrer Posts temporär zu schließen. Dieses Feature wird von Facebook bisher nicht angeboten. Trollarmeen können ungehindert Kommentarspalten mit Hasskommentaren füllen. Jeder Seitenbetreiber, unabhängig von politischer Ausrichtung, soll das Tool gratis nutzen und so auch in Shitstroms die Kontrolle über die eigene Seite wiedergewinnen können.
2. Browser-Plugin für rechtskräftige Screenshots
Die Dokumentation von Hassrede muss bestimmte Kriterien erfüllen, um diese bei Polizei und Justiz erfolgreich einreichen zu können. Mit einem Browser-Plugin soll dies auf intuitive und einfache Weise realisiert werden. Mit den Screenshots sollen alle für eine Anzeige wichtigen Parameter sowie relevante Metadaten erfasst werden. So kann auf die Daten auch im Falle der vorübergehenden Löschung im Rahmen des NetzDG weiterhin direkt zugegriffen werden.
3. Identifikation und Analyse der Hater-Multiplikatoren & Netzwerke
Welche User*innen sind besonders erfolgreich und reichweitenstark, um Hate Speech zu verbreiten? In unseren Interviews wurden sie als “Hass-Animateure” bezeichnet. Sie mobilisieren eine Trollarmee, um gezielt Hass zu verbreiten. Einige von ihnen sind vielen Aktivist*innen bekannt, andere agieren themenspezifisch. Betroffene blockieren sie, um sich zu schützen. Die Identifikation und Analyse der Hass-Animateure soll dabei helfen, Netzwerke aufzudecken.
4. 10 erste Schritte im Shitstorm & 8-Punkte-Solidaritätsliste
Gemeinsam mit Betroffenen haben wir Ideen und Tipps gesammelt, die Betroffene und ihr Umfeld im Falle eines Shistorms tun können. Diese Listen wollen wir aufbereiten und sichtbar machen.
Darüber entstanden weitere Ideen, die wir weiter verfolgen. Für 2019 planen wir zunächst die Realisierung der vier Prototypen gemeinsam mit #ichbinhier, Fearless Democracy, Tracemap und anderen. Wenn ihr uns dabei unterstützen wollt oder wenn ihr weitere praktische Lösungen gegen Hate Speech kennt, kontaktiert uns jederzeit unter info@das-nettz.de!