Forschungskorpus Hate Speech

Warum ein Datensatz mit digitalen Verhaltensdaten zu Hassrede?

Hassrede im Internet und auf sozialen Medien ist in den letzten Jahren zunehmend in den Fokus der öffentlichen und wissenschaftlichen Aufmerksamkeit gerückt. Digitale Plattformen eröffnen extremistischen Akteur*innen – insbesondere auch aus dem rechten Spektrum – die Möglichkeit, etablierte Gatekeeper des politischen Diskurses wie Parteien oder klassische Medien gezielt zu umgehen. So können sie ihre Ideologien, Narrative und Feindbilder ungefiltert und oftmals anonym verbreiten. Diese Form der digitalen Kommunikation stellt eine ernstzunehmende Herausforderung für demokratische Gesellschaften dar, da sie gezielt darauf ausgelegt ist, Vertrauen in demokratische Institutionen zu untergraben und gesellschaftliche Spaltungen zu vertiefen. Auch die deutsche Szene hat das Mobilisierungspotential sozialer Medien erkannt und nutzt ein Netzwerk unterschiedlicher Plattformen sowie reichweitenstarke Konten von Politiker*innen und Influencer*innen, zunehmend auch mit Inhalten aus generativer KI, um insbesondere junge Zielgruppen anzusprechen (Boyd, 2010; Winter, 2019; Rothut et al., 2023). Jugendliche, die sich in einer sensiblen Phase der Identitäts- und Meinungsbildung befinden, sind dabei besonders anfällig für solche manipulativen Inhalte.

Obwohl in den letzten Jahren Fortschritte bei der Bereitstellung deutschsprachiger Datensätze zur digitalen Hassrede erzielt wurden (vgl. hatespeechdata.com), bleibt die Anzahl nachnutzbarer, qualitativ hochwertiger und gut dokumentierter Korpus-Daten im Vergleich zum englischsprachigen Raum begrenzt (vgl. SOMAR). Diese Lücke erschwert eine wissenschaftliche Auseinandersetzung mit diesen Phänomenen und die Reproduzierbarkeit von Studienergebnissen erheblich. Um die Erforschung extremistischer Kommunikation mit digitalen Verhaltensdaten in der Bundesrepublik zu stärken, verfolgt DP-R|EX das Ziel, Daten zu digitaler Hassrede für die Nachnutzung bereitzustellen und gleichzeitig Methoden für die Datenerhebung und Datenbereitstellung zu erproben und zu dokumentieren.

 

Mainstreaming von extremistischen und menschenverachtenden Inhalten über populäre Online-Plattformen

Social-Media-Plattformen wie Facebook, YouTube, X (ehemals Twitter) und TikTok fungieren heute als Katalysatoren für das Mainstreaming extremistischer Narrative. Mainstreaming bezeichnet dabei den Prozess, durch den ursprünglich randständige oder extreme Inhalte (Borderline-Content) sukzessive in die breite öffentliche Wahrnehmung gelangen, dort Akzeptanz finden und somit zur Normalität werden. Dabei legt der jeweils dominante gesellschaftliche Diskurs – selbst ein kontingentes und wandelbares Konstrukt – die Grenzziehung zum Extrem fest und bestimmt so aktiv, welche Inhalte als legitim gelten (Brown et al., 2023). Algorithmen verstärken gezielt Inhalte extremer Gruppen, indem sie diese in personalisierte Feeds einspeisen und so traditionelle Gatekeeper des politischen Diskurses umgehen (Conway et al., 2019). Mindestens ebenso bedeutsam sind jedoch die persönlichen Entscheidungen der Nutzenden – das bewusste Teilen, Abonnieren und Folgen einschlägiger Kanäle oder bestimmter extremistischer Akteur*innen führt zur Bildung von Echo-Kammern, die die Nutzenden in ihren bereits existierenden Weltanschauungen bestärken können (Karell et al., 2023). Extremistische Akteur*innen nutzen zudem ein vielschichtiges Netzwerk aus kanalübergreifenden Strategien (z. B. Cross-Posting zwischen Telegram, YouTube und Instagram), um ihre Botschaften in vormals unverdächtige Nutzer­*innensegmente hineinzutragen (Urman & Katz, 2022; Kakavand, 2024). Durch diese Online-Radikalisierungsprozesse dringen Hasskommentare mit menschenfeindlichen Inhalten sukzessive in den Mainstream ein, werden von breiteren Zielgruppen wahrgenommen und entfalten offline Wirkung, die sich im Extremfall in politisch motivierten Gewalttaten äußert können (Karell et al., 2023).

Telegram als Sprachrohr rassistischer und extremistischer Akteur*innen

Telegram hat sich in den letzten Jahren zu einer zentralen Plattform für rassistische und rechtsextreme Gruppen entwickelt – auch in Deutschland (Zehring & Domahidi, 2023). Dank seiner End-to-End-Verschlüsselung, großen Kanal- und Gruppenkapazitäten sowie der Möglichkeit, anonyme Broadcast-Channels zu betreiben, entzieht es sich weitgehend der Kontrolle von Moderationsinstanzen (Dietze, 2023). Extremistische Akteur*innen nutzen diese Infrastruktur, um über (teilweise durch Bots oder Algorithmen erstellte) Untergrundnetzwerke Propagandavideos, Codierungen und „Memes“ mit radikalisierten Ideologien und Hassrede zu verbreiten (Bloom et al., 2019). Anders als auf Mainstream-Plattformen gibt es auf Telegram keine algorithmisch kuratierten Feeds – stattdessen erfolgt die Verbreitung viral über Weiterleitungen, Einladungslinks und kanalübergreifendes Cross-Posting in thematisch verbundene Gruppen (Walther & McCoy, 2021). So erreichen Hassakteur*innen nicht nur bereits Sympathisierende mit der radikalen Szene, sondern erschließen durch starke Vernetzung neue Zielgruppen und können dadurch Meinungsbildungs- und Radikalisierungsprozesse unter Ausschluss von externen Eingriffen vorantreiben (Schulze, 2024).