Fakten sind keine Zensur: Meta und die Zukunft der Inhaltsmoderation
Die jüngsten Entscheidungen von Meta, unter der Führung von Mark Zuckerberg, die Inhaltsmoderation zu lockern und Faktenchecks abzuschaffen, werfen nicht nur in den USA Fragen auf, sondern haben auch weitreichende Implikationen für den europäischen Raum, insbesondere im Hinblick auf die Bekämpfung von Hass im Netz. Zuckerberg ist bereit, sich an den seit dem 20. Januar 2025 amtierenden US-Präsidenten Donald Trump politisch anzupassen.
So wurde die Hassrede-Richtlinie aufgeweicht und Beschränkungen für schädliche Meinungsäußerung aufgehoben. Ein Beispiel dafür ist die Lockerung der Moderation von Beiträgen, die stereotype oder abwertende Aussagen über marginalisierte Gruppen enthalten, sofern sie nicht ausdrücklich zu Gewalt aufrufen. Dies trifft insbesondere vulnerable Gruppen, denen Schutz vor gruppenbezogener Menschenfeindlichkeit entzogen und damit ihr Rückzug aus dem öffentlichen Diskurs wahrscheinlicher wird.
Meta plant außerdem, das bisherige Faktenprüfungsprogramm in den USA einzustellen und stattdessen auf Community Notes zu setzen, bei denen Nutzer*innen Inhalte bewerten können. Die Europäische Union hat in den vergangenen Jahren verstärkt Maßnahmen zur Bekämpfung von illegalen Inhalten ergriffen, insbesondere durch den Digital Services Act (DSA), der Plattformen zu wirksamer Moderation und mehr Transparenz verpflichtet.
Gegen X läuft zum Beispiel bereits seit 2023 ein DSA-Verfahren, in dem unter anderem die Wirksamkeit von Community Notes untersucht werden soll. Zuckerberg kann auf seinen Plattformen in der EU nicht einfach Inhalte erlauben, die qua nationalem Gesetz z.B. unter strafbare Beleidigungen fielen.
Diese müssen nach Meldung gelöscht werden. Handelt es sich um unerwünschte, aber legale Inhalte (“lawful but awful”), die konstruktive Debatten verhindern können und unter die Desinformation oft fällt, greifen diese Vorgaben zur Regulierung zu kurz. Der DSA sieht deshalb vor, dass Plattformen verpflichtet sind, die Risiken digitaler Plattformen für gesellschaftliche Debatten und Wahlprozesse zu bewerten und zu minimieren - Desinformation ist eines davon.
Während der DSA die Plattformen dazu anhält, gegen illegale Inhalte vorzugehen und systemische Risiken zu reduzieren, könnte die Lockerung der Moderation durch Meta in den USA als gefährlicher Präzedenzfall für die EU dienen – ein Schritt, der die Diskussion über die Notwendigkeit einer besseren Regulierung digitaler Plattformen erneut anheizen wird.
Die Wurzel des Problems ist die Machtkonzentration durch Tech-Unternehmen und ihr Einfluss auf politische Meinungsbildung. Ersteres kann der DSA nicht angehen, letzteres muss er erst durch Design und Funktionsweise der Plattform beweisen.
Die Verantwortung von Social-Media-Plattformen
Die Entscheidung, professionelle Faktenprüfungen abzuschaffen und stattdessen auf Community-basierte Bewertungen zu setzen, lagert die Verantwortung nicht nur auf Nutzer*innen aus, sondern könnte die Verbreitung von Fehl- und Falschinformationen begünstigen. Ironischerweise hat Meta in seinen Transparenzberichten, die der DSA von allen sehr großen Plattformen und Suchmaschinen alle sechs Monate fordert, auf die Erfolge seines eigenen Factchecking-Programms in der EU verwiesen.
In Deutschland und anderen EU-Staaten wird die Bekämpfung von Desinformation und Hass im Netz zunehmend als eine der zentralen Herausforderungen digitaler Gesellschaften gesehen. Dabei ist wichtig zu verstehen: Das Einschreiten gegen Hassrede ermöglicht mehr pluralistischen Diskurs, nicht weniger. Moderationsrichtlinien, wenn konsequent umgesetzt, schützen die freie Meinungsäußerung, indem sie verhindern, dass Hassrede den öffentlichen Diskurs vergiftet und vulnerable Gruppen aus der Debatte drängt.
Metas neuer Ansatz könnte es der lauten Minderheit auf Facebook, Instagram und Threads zudem erleichtern, ihre Narrative zu verbreiten, ohne auf sachliche Überprüfung angewiesen zu sein. Durch die Kennzeichnung irreführender Inhalte mit zusätzlichem Kontext würde den Nutzer*innen geholfen und eine sachkundige Debatte gefördert.
Gerade in der Vorbereitungsphase zu den Neuwahlen in Deutschland und anderen EU-Ländern ist es von entscheidender Bedeutung, dass demokratische Prozesse vor Desinformation geschützt werden. Es ist nicht zu übersehen, dass Wahlkämpfe zunehmend auf sozialen Medien ausgetragen werden – Plattformen, auf denen gezielte Desinformationskampagnen das Vertrauen in politische Prozesse gefährden können.
Unsere Forderung: Verantwortung für eine sichere digitale Zukunft
Als Organisation, die sich dem Kampf gegen Hass im Netz verschrieben hat, betonen wir: Fakten sind keine Zensur, sondern ein fundamentaler Bestandteil eines demokratischen und informierten Diskurses. Als Plattformen, die zwar privatwirtschaftlich organisiert sind, aber gesamtgesellschaftlich wirken, ist es unerlässlich, dass Meta und andere Plattformen eine aktive Rolle bei der Bekämpfung von Hassrede und Desinformation übernehmen und sicherstellen, dass Wahlen und politische Debatten nicht durch Falschinformationen und Ressentiments verfälscht werden.
Wir fordern Meta und andere soziale Plattformen auf, die Verbreitung von Hassrede und Desinformation nicht weiter zu begünstigen und sich ihrer Verantwortung für die öffentliche Meinungsbildung bewusst zu werden. Die richtige Antwort auf unzureichende Moderation kann nicht sein, Inhaltsmoderation aufzuweichen - es muss klar bessere Moderation sein. Wenn Meta sich wirklich zur freien Meinungsäußerung bekennen will, muss es sich zur freien Meinungsäußerung für alle Nutzer*inner seiner Dienste verpflichten, nicht vulnerable Gruppen durch aufgeweichte Richtlinien von der Plattform verdrängen. Verantwortung fängt aber auch bei uns Nutzer*innen an. Verstehen wir, wie Plattformen funktionieren?
Können wir Inhalte unter diesen Umständen einordnen? Und wie soll ein Plattform-Ökosystem der Zukunft aussehen? Das geht natürlich nicht ohne Tech- und Medienkompetenzen und muss strukturell unterstützt werden.