Hasserfüllte Rhetorik belastet den Online-Diskurs, fördert extreme gesellschaftliche Bewegungen und führt möglicherweise zu Gewalt in der realen Welt. Eine mögliche Lösung für dieses wachsende globale Problem ist die von Bürgerinnen und Bürgern erzeugte Gegenrede, bei der sie sich aktiv an hasserfüllten Gesprächen beteiligen, um zu versuchen, den zivilen, nicht-polarisierten Diskurs, wiederherzustellen. Ihre tatsächliche Wirksamkeit bei der Eindämmung der Ausbreitung von Hass ist jedoch unbekannt und schwer zu quantifizieren. Ein Haupthindernis bei der Erforschung dieser Frage ist der Mangel an großen, gekennzeichneten Datensätzen für die Ausbildung automatisierter Klassifikatoren zur Identifizierung von Gegenreden. Hier machen sich die Autoren eine in Deutschland einzigartige Situation zunutze, in der sich Gruppen in organisierter Gegenrede engagierten. Wir verwendeten einen Ensemble-Learning-Algorithmus, der eine Vielzahl von Absatzeinbettungen mit regularisierten logistischen Regressionsfunktionen paart, um sowohl Hass als auch Gegenrede in einem Korpus von Millionen relevanter Tweets dieser beiden Gruppen zu klassifizieren. Unsere Pipeline erzielte Makro-F1-Ergebnisse bei ausgewogenen Testsätzen aus einer Stichprobe von 0,76 bis 0,97 - eine Genauigkeit, die dem Stand der Technik entspricht und diesen sogar übertrifft. Bei Tausenden von Tweets nutzten wir Crowdsourcing, um zu verifizieren, dass die vom Klassifizierer getroffenen Beurteilungen eng mit dem menschlichen Urteilsvermögen übereinstimmen. Anschließend nutzten wir den Klassifikator, um Hass und Gegenrede in mehr als 135.000 voll aufgelösten Twitter-Gesprächen zwischen 2013 und 2018 zu entdecken und ihre Häufigkeit und Interaktion zu untersuchen. Insgesamt verdeutlichen unsere Ergebnisse das Potenzial automatisierter Methoden zur Bewertung der Wirkung koordinierter Gegensprache bei der Stabilisierung von Gesprächen in sozialen Medien.