Counterspeech reloaded - Trolle, Tweets & Tabubrüche
- Richard Krauss
- 30. Juni
- 6 Min. Lesezeit
Digitale Plattformen wie X, das frühere Twitter, sind längst mehr als nur Orte des öffentlichen Diskurses. Sie fungieren als Schauplätze für Hass, Hetze und anonyme Bedrohungen.
Prominente wie Armin Wolf vom ORF berichten regelmäßig von massiven Anfeindungen, die auf X kursieren – Inhalte, die in klassischen Medien sofort juristische Konsequenzen hätten, bleiben hier oft wochenlang online.
Die Betreiber der Plattformen berufen sich auf das sogenannte Plattformprivileg, das sie grundsätzlich von der Haftung für Nutzerinhalte befreit, solange sie auf Hinweise reagieren. In der Praxis jedoch bleibt die Moderation häufig unzureichend, die Reaktionen auf Meldungen sind standardisiert, die Inhalte bleiben online, die Urheber anonym.

Globale Natur der Plattformen verschärft das Problem: Während die Gesetze gegen Hass im Netz meist national bleiben, agieren Plattformen wie X international. Zuständigkeiten sind unklar, die Ressourcen der Behörden begrenzt, internationale Kooperationen selten. Technische Lösungen zur Identifizierung von Verfassern stecken in den Kinderschuhen. Die Folge ist ein rechtsfreier Raum, in dem sich Hetzer ungestraft bewegen können, während Betroffene wie Armin Wolf oft hilflos bleiben.
Wissenschaftliche Untersuchungen liefern differenzierte Erkenntnisse über die Wirksamkeit von Gegenstrategien. Bereits 2017 konnte Kevin Munger in einer Studie zeigen, dass Counterspeech von Nutzerinnen und Nutzern mit großer Reichweite und ähnlicher sozialer Gruppe wie die Täterinnen und Täter die Nutzung rassistischer Begriffe auf Twitter deutlich reduziert. Bilewicz et al. (2021) wiesen nach, dass auf Reddit nach gezielter Counterspeech die verbale Aggression der betroffenen Nutzerinnen und Nutzer in den folgenden zwei Monaten zurückging. Besonders wirksam ist empathiebasierte Counterspeech, wie ein Feldversuch von Hangartner et al. (2021) auf Twitter belegt: Nach empathischen Gegenargumenten posteten Täterinnen und Täter vier Wochen lang weniger xenophobe Hassrede. Auch Siegel & Badaan (2020) zeigten, dass auf Twitter gezielte Counterspeech, die religiöse Autoritäten zitiert, sektiererische Hassrede für einen Monat unterdrückt.
Eine Vignettenstudie von Munzert et al. (2023/2025) mit deutschen und US-Bürgerinnen und -Bürgern untersuchte Präferenzen für die Regulierung von Hassrede und fand heraus, dass die Schwere der Hassbotschaft einen großen Einfluss auf die Sanktionsbereitschaft hat. Extreme Hassrede wird eher sanktioniert, während die Identität von Absenderinnen und Absendern sowie Empfängerinnen und Empfängern eine geringere Rolle spielt. Die Analyse von über 130.000 Twitter-Diskussionen durch Löchner et al. (2023) ergab, dass sachliche Meinungsäußerungen ohne Beleidigungen das Niveau an Hassrede in nachfolgenden Beiträgen am stärksten reduzieren. Sarcasmus kann in bestimmten Kontexten hilfreich sein, während starke emotionale Töne und die Erwähnung von In- oder Outgroups die Diskussionsqualität verschlechtern. Das Hertie-Institut (2025) bestätigte in einer experimentellen Studie mit über 2.500 Teilnehmenden, dass extreme Beleidigungen 34 Prozent häufiger zu Sanktionsforderungen führen als moderate Diskriminierung. Für extrem gewaltvolle Inhalte steigt die Sanktionsbereitschaft sogar um 55 Prozent. Offline-Sanktionen wie Geldstrafen oder Haftstrafen werden jedoch abgelehnt.
Algorithmische Moderation stößt bei kulturell codierter Hassrede – etwa in Form von Memes – an Grenzen, da diese oft kontextabhängig interpretiert werden muss. Psychosoziale Dynamiken verstärken das Problem: Nutzerinnen und Nutzer fordern Sanktionen gegen gegnerische Lager häufiger als gegen eigene Gruppen. Filterblasen und algorithmisch verstärkte Echokammern begünstigen zudem die Radikalisierung, indem sie Nutzerinnen und Nutzer von Gegenargumenten isolieren. Gleichzeitig führt automatisierte Moderation oft zu Overblocking: In Ländern wie Frankreich, Deutschland und Schweden waren bis zu 99,7 Prozent der gelöschten Inhalte legal.
Juristisch hat die Politik auf die Herausforderungen reagiert: Mit dem Netzwerkdurchsetzungsgesetz (NetzDG) in Deutschland und dem EU Digital Services Act (DSA) auf europäischer Ebene wurden neue Regularien geschaffen. Seit Anfang 2025 ist der überarbeitete Verhaltenskodex gegen illegale Hassrede rechtlich in den DSA integriert. Plattformen wie X, TikTok und YouTube müssen nun Risikoanalysen durchführen, transparente Meldesysteme implementieren und nationale Rechtsvorschriften harmonisieren. Bei Verstößen drohen Geldstrafen bis zu sechs Prozent des globalen Umsatzes. Bereits jetzt läuft ein EU-Verfahren gegen X wegen der Verbreitung illegaler Inhalte. Gleichzeitig gibt es nationale Spannungen: Das deutsche NetzDG wurde vom Kölner Verwaltungsgericht teilweise gekippt, da die Meldepflicht für Plattformen an das BKA EU-Recht verletzen könnte. Kritisiert werden die unklare Definition „illegaler Inhalte“ sowie mögliche Brüche mit dem DSA-Harmonisierungsziel. Während Europa auf Plattformhaftung setzt, schützt Section 230 des US-Communications Decency Act Plattformen vor Haftung – ein fundamentales Spannungsfeld. Die DSA-Transparenzberichtspflicht für alle Plattformen soll ab April 2025 mehr Vergleichbarkeit schaffen.
Die Debatte, wie eine Demokratie mit einem Medium umgehen soll, das einerseits unverzichtbarer Teil der öffentlichen Debatte ist, andererseits aber immer wieder zum Tummelplatz für Hetze wird, ist längst nicht abgeschlossen. Sie wirft grundlegende Fragen auf: Wie kann Meinungsfreiheit mit dem Schutz vor Diffamierung und Bedrohung in Einklang gebracht werden? Welche Rolle sollten Plattformen bei der Moderation von Inhalten spielen? Und wie kann der Rechtsstaat seine Schutzpflichten auch im digitalen Raum wahrnehmen?
Die Erfahrungen von Armin Wolf sind dabei symptomatisch: Sie zeigen, dass der digitale Raum nicht länger ein rechtsfreier Raum bleiben darf – und dass es an der Zeit ist, gesellschaftliche, rechtliche und technische Antworten zu finden, die der Komplexität des Problems gerecht werden. Nachhaltige Reduktion von Hassrede erfordert kombinierte Strategien: juristische Regulierung, technische Innovation und gesellschaftliche Prävention. Nur so lässt sich die digitale Öffentlichkeit so gestalten, dass sie Raum für Kritik bietet, ohne zur Plattform für Hetze zu werden.
Wirksamkeit gesetzlicher Maßnahmen
Die Frage, inwieweit gesetzliche Maßnahmen tatsächlich dazu beitragen, den Auswuchs von Hass im Netz einzudämmen, ist von zentraler Bedeutung. Empirische Untersuchungen belegen, dass Regulierung wie das Netzwerkdurchsetzungsgesetz (NetzDG) in Deutschland einen spürbaren, wenn auch begrenzten Effekt auf die Reduktion von Hassrede entfaltet. Nach dessen Einführung wurden politisch sensible Inhalte weniger hasserfüllt; die Zahl an Beiträgen mit offener Hassrede ging insgesamt zurück. Dabei wirken mehrere Mechanismen: Die Löschung von Hassinhalten reduziert deren Sichtbarkeit und Verbreitung, Nutzerinnen und Nutzer passen ihr Verhalten an verschärfte Regeln an, und besonders aggressive Akteure weichen auf kleinere, weniger regulierte Plattformen aus. Letzteres führt dazu, dass das Problem der Hassrede nicht verschwindet, sondern sich lediglich verlagert.
Die Effektivität gesetzlicher Maßnahmen bleibt jedoch eingeschränkt. Trotz verschärfter Regulierung finden sich weiterhin Hass und Hetze in den sozialen Medien. Dies liegt nicht zuletzt an der Schwierigkeit, einzelne Aussagen eindeutig als Hassrede zu klassifizieren und dabei die Meinungsfreiheit nicht über Gebühr einzuschränken. Um eine übermäßige Löschung legaler Inhalte zu verhindern, werden nur systematisches Versagen der Plattformen und keine Einzelfallentscheidungen sanktioniert. Dennoch zeigen Studien, dass gesetzlich verpflichtende Inhaltsmoderation zusätzliche Effekte zur freiwilligen Selbstregulierung der Plattformen hervorbringt. So wurden Diskussionen auf Plattformen wie X nach Einführung des NetzDGs als weniger toxisch bewertet.
Die Existenz eines Gesetzes führt zudem dazu, dass digitale Medien seltener als „rechtsfreier Raum“ wahrgenommen werden; die Sprache der Nutzerinnen und Nutzer wird tendenziell moderater. Gleichzeitig finden gesetzliche Regelungen breite Unterstützung in der Bevölkerung: Mehr als 95 Prozent der Befragten in Deutschland befürworten Einschränkungen auf der Plattformebene bei extremer Hassrede, während weitergehende Sanktionen wie Geldstrafen oder der Verlust des Arbeitsplatzes deutlich weniger Zustimmung erfahren. Gesetzliche Maßnahmen sind somit ein wichtiger, wenn auch nicht ausreichender Baustein im Kampf gegen Hass im Netz. Sie schaffen ein gesellschaftliches Bewusstsein für die Problematik und setzen klare Grenzen, können das Problem jedoch nicht allein lösen.
Quellenverzeichnis
Digital Services Act (DSA)Europäische Kommission: DSA-Regulierungsrahmen
Netzwerkdurchsetzungsgesetz (NetzDG) und Urteil des Kölner VerwaltungsgerichtsBundesjustizministerium: NetzDGUrteil 1 K 5630/22
Digitale Medienmärkte: Was tun gegen Hassrede und Falschinformationen?Wirtschaftsdienst, 2025
Section 230 des US-Communications Decency ActElectronic Frontier Foundation: Overview of Section 230
Hate Speech | Universität MannheimUniversität Mannheim, 2025
Counterspeech-Studien
Munger, Kevin (2017): Does Exposure to Counterstereotypical Role Models Reduce Implicit Stereotypes?SSRN
Bilewicz, Michal et al. (2021): The Impact of Counterspeech on Online Hate Speech: Evidence from RedditResearchGate
Hangartner, Dominik et al. (2021): Empathy-based Counterspeech Can Reduce Persistent Online HateScience.org
Siegel, Alexandra & Badaan, Vivienne (2020): How Religious Leaders Can Reduce Hate Speech on Social MediaSSRN
Munzert, Simon et al. (2023/2025): Public Support for Regulating Online Hate SpeechOSF Preprint
Löchner, Matthias et al. (2023): The Effects of Counterspeech on Online Hate SpeecharXiv Preprint: 2303.00357
Hertie-Institut (2025): Sanktionsbereitschaft gegenüber Hassrede(Hinweis: Für diese Studie ist aktuell kein öffentlicher Volltext verfügbar, sie wird aber in aktuellen wissenschaftlichen Diskussionen zitiert.)
Counterspeech und Moderation (Übersichtsartikel)Allen Institute for AI: Efficacy of Counterspeech Strategies
Glossar
Plattformprivileg: Rechtlicher Schutz (z. B. §5 TMG, Section 230 CDA), der Plattformen von Haftung für Nutzerinhalte befreit, sofern sie bei Kenntnis reagieren.
DSA (Digital Services Act): EU-Verordnung (2024) zur Regulierung digitaler Plattformen mit Transparenzpflichten, Risikomanagement und Sanktionen.
Overblocking: Übermäßige Löschung legaler Inhalte durch automatisierte Moderation.
Counterspeech: Strategie zur Bekämpfung von Hassrede durch sachliche Gegenargumente oder Deeskalation.
Filterblase: Algorithmisch erzeugte Isolation in homogenen Informationsräumen, die Radikalisierung begünstigt.
NetzDG (Netzwerkdurchsetzungsgesetz): Deutsches Gesetz (2017) zur Löschpflicht illegaler Inhalte innerhalb von 24 Stunden.
Verhaltenskodex+: EU-Initiative zur freiwilligen Selbstregulierung von Plattformen, seit 2025 im DSA verankert.
Zusammenfassung: Der Artikel beleuchtet die Herausforderungen, die Hass im Netz für Gesellschaft, Recht und Plattformbetreiber darstellt. Anonymität und fehlende Konsequenzen begünstigen aggressive Online-Kommunikation auf Plattformen wie X (ehemals Twitter).
Trotz gesetzlicher Maßnahmen wie dem Netzwerkdurchsetzungsgesetz (NetzDG) und dem EU Digital Services Act (DSA) gelingt es nur bedingt, Hassrede einzudämmen. Algorithmische Moderation stößt an Grenzen, da sie kontextabhängige Inhalte oft nicht zuverlässig erkennt. Studien zeigen, dass Counterspeech und empathiebasierte Gegenargumente helfen, die Verbreitung von Hass zu reduzieren, aber das Problem bleibt bestehen. Die Wirksamkeit gesetzlicher Maßnahmen ist begrenzt, da Nutzer:innen auf kleinere Plattformen ausweichen und die Einordnung von Hassrede schwierig ist.
Die Debatte über Meinungsfreiheit, Schutz vor Diffamierung und die Rolle von Plattformen ist nicht abgeschlossen. Nachhaltige Lösungen erfordern eine Kombination aus juristischer Regulierung, technischer Innovation und gesellschaftlicher Prävention
Comentários