Guide to #DSA Teil 3: Der Verhaltenskodex zur Bekämpfung illegaler Hassrede

Am 20. Januar 2025 wurde eine aktualisierte Version des vor acht Jahren entstandenen EU-Verhaltenskodexes zur Bekämpfung illegaler Hassrede als „Verhaltenskodex+“ in den Digital Services Act (DSA) integriert. Das NETTZ ist Teil des von der EU-Kommission initiierten Expert*innenforums für den Verhaltenskodex+. Was ist neu am Verhaltenskodex+ und um was geht es in ihm konkret?
Verhaltenskodizes und was sie mit dem DSA zu tun haben
Nach dem Gesetz über digitale Dienste können freiwillige Verhaltenskodizes gemäß DSA Artikel 45 Anbietern sehr großer Online-Plattformen (VLOPs) und sehr großer Online-Suchmaschinen (VLOSEs) dabei helfen, Verpflichtungen einzugehen, die zur Anwendung des Gesetzes über digitale Dienste beitragen. Wenn VLOPs und VLOSEs Verhaltenskodizes unterzeichnen, wird ihre Einhaltung der Kodizes von unabhängigen Prüfer*innen (engl. auditors) kontrolliert – genau wie die Einhaltung der verbindlichen DSA-Vorschriften durch die Tech-Unternehmen.
Sollte die EU-Kommission künftig eines der unterzeichnenden Unternehmen wegen möglicher DSA-Verstöße untersuchen, wird sie mit bedenken, dass das Unternehmen sich zusätzlich dem Kodex+ verpflichtet hat. Unklar bleibt allerdings, wie sich diese Verbindungen zwischen „freiwilligen” Verpflichtungen und gesetzlichen Auflagen in der Praxis auswirken werden.
Bevor der DSA vollständig in Kraft trat, halfen Verhaltenskodizes auch dabei, Plattformen mittels nicht rechtlich bindender Vereinbarungen (“soft law”) zur Verantwortung zu ziehen. Neben den freiwilligen Regeln für Hassrede gibt es auch noch einen weiteren Verhaltenskodex zur Bekämpfung von Desinformation, der bis zum 1. Juli in den DSA integriert werden soll. Aus diesem hat sich X nach der Übernahme durch Elon Musk zurückgezogen.
Worum es beim Verhaltenskodex+ geht
Der Zweck des Verhaltenskodex+ ist es, die Plattformen in die Pflicht zu nehmen, nach EU-Recht illegale Hassrede zu unterbinden. Der Kodex+ dient auch als Instrument, systemische Risiken gemäß Art. 34 DSA zu minimieren. Plattformen, die sich an den Kodex+ halten, weisen dadurch nach, dass sie ihren Verpflichtungen aus dem DSA nachkommen, um die Verbreitung illegaler Inhalte – als ein durch das Design oder die Funktionsweise der Plattform bedingtes Risiko – zu erkennen und abzumindern. Diese Risiken werden als systemische Risiken bezeichnet. Der Verhaltenskodex basiert auf einer engen Zusammenarbeit zwischen der EU-Kommission, den Plattformen, Organisationen der Zivilgesellschaft und nationalen Behörden.
Eine High-Level Expert*innengruppe betreibt ein jährliches Compliance-Monitoring zur Bewertung der Effektivität und zur Transparenz der Inhaltsmoderation:
Braucht die Plattform weniger als 24 Stunden, um auf eine Meldung zu reagieren? Welche Inhalte und wie viel wird entfernt? Und gab es rechtzeitiges Feedback von den Plattformen auf Meldungen der Hinweisgeber*innen, die sich an der Monitoringübung beteiligen?
Der freiwillige Verhaltenskodex besteht seit 2016 und wurde seitdem nicht mehr überarbeitet. Der aktualisierte Verhaltenskodex+ hat 12 Unterzeichner: sieben VLOPs (Facebook, Instagram, LinkedIn, Snapchat, TikTok, X, YouTube) und fünf weitere Unterzeichner (Dailymotion, Jeuxvideo.com, Microsoft, Rakuten Viber, Twitch).
Was unter illegale Inhalte fällt
Schon seit 2008 sind alle EU-Mitgliedstaaten verpflichtet, öffentliche Aufstachelung zu Gewalt oder Hass gegen eine Gruppe von Personen aus Gründen der nationalen und ethnischen Herkunft, Religion oder Abstammung unter Strafe zu stellen. Mehrere Mitgliedstaaten sind darüber sogar hinausgegangen und nahmen Hetze wegen anderer Kriterien (z.B. sexuelle Orientierung, Behinderung) in den Strafkatalog auf. 2024 schlug die EU-Kommission vor, Hassverbrechen und Hetze sogar in die Liste der EU-Straftatbestände (Art. 83 AEUV) aufzunehmen. Hierüber müssen die Mitgliedstaaten jedoch noch einstimmig entscheiden.
Nationales Recht hat bei der Entscheidung, was als illegal gilt, Vorrang. Als illegale Hassrede und Hetze im Sinne des Verhaltenskodex+ gelten daher alle Verhaltensweisen, die auch in den nationalen Gesetzen der Mitgliedstaaten als rechtswidrig definiert sind. In Deutschland fallen darunter z.B. üble Nachrede, Verleumdung oder Volksverhetzung nach StGB. Gibt es auf nationaler Ebene bestimmte Vorgehen gegen illegale Hetze, sind die Unterzeichner*innen dazu verpflichtet, die zuständige Behörde davon in Kenntnis zu setzen.
Das Ziel der aktuellen Version
Die überarbeitete Version soll vor allem Online-Plattformen dabei unterstützen, ihre „Präventionsarbeit” zu verbessern und Bedrohungen durch die Diskursdynamik auf der Plattform besser vorauszusagen. Die EU-Kommission möchte sicherstellen, dass die im Kodex genannten Plattformen transparenter und strukturierter über zusätzliche Maßnahmen berichten, die sie zur Eindämmung und Erkennung von illegaler Hassrede in ihren Diensten ergreifen. Durch das Update soll auch die Zusammenarbeit zwischen verschiedenen Interessengruppen, die sich im Rahmen des derzeitigen Kodex entwickelt hat, gestärkt werden. Außerdem sollen die Plattformkapazitäten durch Warnsysteme ausgebaut werden, um das Risiko der Verbreitung von Hassrede zu verhindern.
Was neu ist
Der Verhaltenskodex+ fordert eine klare Definition von Hassrede als eindeutig verbotener Inhalt in den allgemeinen Geschäftsbedingungen der Plattformen.
Bereits in der Version von 2016 mussten Plattformen ihre Nutzer*innen informieren und dafür sensibilisieren, welche Art von Inhalten nach ihren Regeln und Community-Leitlinien nicht erlaubt sind. In der aktualisierten Version fordert der Verhaltenskodex von den Unterzeichner*innen explizit eine klare Definition von Hassrede als verbotener Inhalt in den AGB.
Der Verhaltenskodex+ fordert eine 24-Stunden-Löschfrist für mindestens zwei Drittel aller illegalen Inhalte.
Mindestens zwei Drittel der illegalen Inhalte, die den Plattformen gemeldet werden, sollen binnen 24 Stunden überprüft (“notice and action”) werden. Es handelt sich also um eine Reaktion der Plattform, nicht um eine Löschung selbst. Diese Verpflichtung der Plattformen ist leicht höher als die „Mehrheit aller gemeldeten illegalen Inhalte“ aus der Fassung von 2016. Als Vergleich: Im Digital Services Act gibt es keine konkrekte Angabe ("without undue delay") dazu, wie zügig Plattformen auf gemeldete, potenziell illegale Inhalte reagieren.
Es soll eine Austauschplattform (“Knowledge Hub”) für Plattformen, zivilgesellschaftliche Organisationen und Expert*innen eingerichtet werden.
Die Unterzeichner*innen verpflichten sich, mit Expert*innen und Organisationen der Zivilgesellschaft zusammenzuarbeiten, um Trends und Entwicklungen auf dem Gebiet illegaler Hassrede in Echtzeit aufzuzeigen und auszuwerten. Diese Warnmechanismen für Trends in Bezug auf illegale sowie legale, aber schädliche Hassrede dienen dem Monitoring von großen Trends und der entsprechenden Umsetzung von Präventionsmaßnahmen der Plattformen. Zudem soll es einen strukturierten Multi-Stakeholder-Ansatz geben, im Vergleich zum bisherigen Ad-hoc-Austausch von Expertise.
Vertrauenswürdigen Berichterstatter*innen kommt eine tragende Rolle zu.
Vertrauenswürdige Hinweisgeber*innen (engl. „trusted flaggers”) sind ein elementarer Bestandteil des DSA, deren Meldungen über Verstößen von den Plattformen priorisiert behandelt werden sollen. Für den Verhaltenskodex+ rücken vertrauenswürdige Berichterstatter*innen (engl. “monitoring reporters”) in den Vordergrund. Anhang 1 des Kodex enthält eine klare Methodik, um zu überprüfen, inwieweit sich die Plattformen an den Verhaltenskodex halten. Dieses jährliche Compliance-Monitoring geschieht unter anderem durch Dritte mithilfe eines Netzwerks aus vertrauenswürdigen Berichterstatter*innen (einschließlich, aber nicht beschränkt auf die im Rahmen der DSA ernannten vertrauenswürdigen Hinweisgeber*innen). Für das Monitoring gibt es klare Ziele und Indikatoren zur Erfolgsmessung des Monitorings und der Berichterstattung.
Transparente Maßnahmen zur Verringerung der Verbreitung von Hassrede
Die Unterzeichner*innen verpflichten sich außerdem, „klar definierte und spezifische Transparenzverpflichtungen in Bezug auf Maßnahmen zur Verringerung der Verbreitung von Hassreden in ihren Diensten einzugehen – auch durch automatische Erkennungsinstrumente“. Anhang 2 enthält eine umfangreiche Liste möglicher Bezugspunkte, anhand derer Plattformen zusätzlich zu den Ergebnissen von Meldungen und Maßnahmen weitere Daten bereitstellen können – etwa zur Inhaltsmoderation im Bereich Hassrede oder zur Nutzung automatischer Erkennungsinstrumente. Zudem soll es einen brancheninternen Austausch zu bewährten Verfahren zwischen den Unterzeichner*innen geben.
Aber reicht das? Was wir uns daneben gewünscht hätten
- Der Knowledge Hub und das neue Alert-System sind für Plattformen vorteilhaft, weil (zivilgesellschaftliche) Organisationen, die Teil des Expert*innenforums und des Frühwarnsystems sind, ihnen so Arbeit abnehmen. Sie müssen nicht auf „Trending Hate” reagieren. Das System dient nur zur Information und Sensibilisierung. Auch wenn der Verhaltenskodex+ gerade im Prüfmodus ist, plädieren wir dafür, von Plattformen ignorierte Meldungen im Alert-System als Verstoß gegen den Kodex zur Risikominimierung gemäß DSA zu werten.
- Eine adäquate Bezahlung der vertrauenswürdigen Berichterstatter*innen wird im Verhaltenskodex noch nicht genannt. Hier wünschen wir uns mehr Klarheit und Sicherheit für alle Expert*innen und zivilgesellschaftliche Organisationen, die sowohl als vertrauenswürdige Hinweisgeber*innen als auch als vertrauenswürdige Berichterstatter*innen agieren.
Wie es weitergeht
Als Teil des Expert*innenforums für den Verhaltenskodex+ wünschen wir uns deshalb eine regelmäßige Evaluation der Effektivität des Kodexes – insbesondere darüber, inwieweit der Verhaltenskodex+ als integraler Bestandteil des Digital Services Act den rechtlichen Rahmen für die Bekämpfung von Hassrede in Angriff nimmt. Darüber möchten wir auch bei einem NETTZ.Gespräch in diesem Jahr sprechen.
Du fragst Dich, wie zivilgesellschaftliche Organisationen den Digital Services Act nutzen können? Das erfährst Du in Teil 2 unseres Guide to #DSA.

Lena-Maria Böswald
(sie/ihr) Senior Advocacy Managerin