Die wachsenden Anforderungen an Audience Engagement, Community Development und Plattform Management erfordern ebenso viel Energie, Fingerspitzengefühl wie auch ein stabiles Nervenkostüm. Meist fehlt es Redaktionen schlicht an Ressourcen und Zeit, teils auch an speziellen Techniken und Tools, wenn sie Nutzerdiskurse mit Argumenten versachlichen wollen, statt eine emotionsgeladene Debatte eskalieren zu lassen. Um Hassrede, Hetze, Extremismus, Verunglimpfungen und Ausgrenzungen möglichst wenig Raum zu geben, helfen nicht nur Verhaltensregeln, die auf einem ständigen inter- wie intraredaktionellen Erfahrungsaustausch beruhen. Nutzerkommentare konstruktiv zu fördern und weitgehend konfliktfrei zu moderieren, ist vor allem eine Frage der übergreifenden Strategie im Moderationsprozess: Sollten Social-Media-Redakteurinnen und -Redakteure früh in Diskussionen eingreifen oder sie laufen lassen? Wollen Moderatorinnen und Moderatoren Hassrede löschen oder mit Haterinnen und Hatern diskutieren? Agieren sie als Personen oder als Medienmarke? Wie schützen sich Community-Managerinnen und -Manager vor verbaler Gewalt? Sollten Trolle gesperrt, ihre Kommentare gelöscht oder die betreffenden Personen sogar strafrechtlich verfolgt werden? Wir stellen auf der Grundlage unserer empirischen Erkenntnisse einen 10-Punkte-Plan gegen Hassrede vor, um die teilweise dysfunktionale Debattenkultur in den Kommentarspalten von Nachrichtenangeboten zu entstören.