Onlinerassismus als Interaktionscatcher:

Wie sich soziale und technische Komponenten gegenseitig bedingen

Das Projekt untersucht Rassismus und Hatespeech in sozialen Netzwerken wie Facebook oder Twitter. Es fragt, ob und wie sich algorithmische Empfehlungslogiken auf die Form, die Sichtbarkeit, die Popularität und die Verbreitung rassistischer Inhalte auswirken.  

Aus dem Projekt sollen zum einen empirische Ergebnisse zum Ausmaß rassistischer Inhalte auf den Facebook-Seiten deutscher Parteien und Politiker*innen gewonnen werden. Zum anderen soll es eine methodische Grundlage für eine wiederkehrende und systematische Beobachtung, Beschreibung, Dokumentation und Analyse – also für ein Monitoring – von Onlinerassismus entwickeln. 

Leitende Forschungsfragen

  • Lösen herabsetzende Posts gegen rassifizierte Gruppen mehr Kommentare und Shares aus als andere Posts? 
  • Wie beeinflussen die verschiedenen Merkmale von Botschaften die Intensität und die Form der User-Interaktionen? 
  • Welche Rolle spielen die User, welche Rolle spielt die Medienlogik bei der Sichtbarkeit, Popularität und (De-)Legimitierung von Rassismus in den sozialen Medien? 
  • Welche Rolle spielen algorithmische Empfehlungen sozialer Plattformen für die User-Interaktionen mit rassistischen Inhalten und die Sichtbarkeit von Onlinerassismus? 

„Rassistische Schimpfwörter oder offene Aufrufe zur Gewalt gibt es in sozialen Medien seltener als Posts, die dazu anstiften, bestimmte Gruppen auszugrenzen. Diese Gruppen werden meist direkt mit Kriminalität, Terrorismus, Islamismus o.ä. in Verbindung gebracht.“ 

PD Dr. Liriam Sponholz, Verantwortliche für das Projekt „Onlinerassismus als Interaktionscatcher“ 

Projektbeschreibung

Die digitale Transformation hat die Medienlandschaft, den öffentlichen Diskurs und damit auch die Dynamik sozialer Konflikte massiv verändert. In digitalen Netzwerkplattformen wie Facebook oder Twitter („soziale Medien“) bieten Posts verschiedenste Interaktionsmöglichkeiten an, darunter Likes, Shares oder Comments, durch die sozialen Akteure anhand eines Themas oder einer Streitfrage miteinander vernetzt werden. 

Diese Interaktion und Vernetzung wird auch durch technische Gegebenheiten wie die algorithmischen Empfehlungssystemen gesteuert. Aufgrund dessen ist die Kommunikation auf den sogenannten sozialen Medien kein sozialer, sondern ein soziotechnischer Prozess. Es geht also nicht nur um Interaktionen zwischen Menschen, sondern auch um die Modellierung dieser sozialen Interaktion durch technische Systeme. Ein Post wird erst gelikt, wenn er in der Timeline erscheint. Posts, die algorithmisch bevorzugt werden, sind sichtbarer und könnten potenziell mehr Interaktionen auslösen. 

Interaktionen sind zudem keine Frage der Zustimmung. So stellt ein „Wütend-Emoji“ als Reaktion auf einen rassistischen Post auch eine Interaktion dar. Aufgrund der Logik sozialer Medien könnten User*innen rassistischen Inhalten potenziell auch dadurch Sichtbarkeit und Popularität verleihen, indem sie ihre Ablehnung offen kommunizieren.

Obwohl die Logik sozialer Medien intensiv erforscht wird, werden deren Auswirkungen auf die Kommunikation von rassistischen Inhalten nicht konsequent mitgedacht. So erkennt zum Beispiel Matamoros-Fernandez (2017), dass digitale Plattformen symbolischen Rassismus mitgestalten, lotet jedoch – wie viele andere Studien – nicht aus, wie sich das auf die Inhalte, Interaktionsraten und die Vernetzung der Akteure auswirkt (vgl. dazu Sponholz 2021). Die Erforschung des Themas beschränkt sich weitestgehend auf Inhalte oder auf das Soziale, insbesondere auf Folgen für rassifizierte User*innen (Tynes et al. 2018). Viele Studien zum Thema Onlinerassismus, die über die Inhalte hinausgehen, beruhen zudem auf qualitativen Ansätzen, so dass ihre Ergebnisse nicht verallgemeinerbar sind (vgl. Bliuc et al. 2018). 

Das Projekt führt demgegenüber eine quantitative Studie durch, die Inhalt, Interaktionsraten und Akteurs-Vernetzung berücksichtigt und deren Ergebnisse verallgemeinerbar sind. Hierbei sollen die sozialen Indikatoren auch vor dem Hintergrund technischer Entscheidungen bewertet werden. Konkret geht es um die Entscheidung der damaligen Facebook Company (heute Meta), vor allem Posts zu empfehlen, die die meisten „Wütend-Emojis“ generieren.

Das Projekt untersucht, ob und wie sich algorithmische Empfehlungslogiken auf die Form, die Sichtbarkeit, die Popularität und die Verteilung rassistischer Inhalte in sozialen Medien auswirken. 

Ziel des Projektes ist es, auf Basis der Analyse der Interaktionsraten eine methodische Grundlage für eine wiederkehrende und breitere systematische Beobachtung, Beschreibung, Dokumentation und Analyse – also für ein Monitoring – von Onlinerassismus zu entwickeln. Aus dem Projekt sollen zudem empirische Ergebnisse zum Ausmaß rassistischer Inhalte auf den Facebook-Seiten deutscher Parteien und Politiker*innen gewonnen werden.

Das Projekt untersucht Facebook-Posts, die von 2016 bis 2021 auf den Seiten deutscher Politiker*innen, Parteien und rechtsgerichteter Akteure veröffentlicht wurden. Die insgesamt über 188.000 Posts werden sowohl mittels einer manuellen als auch einer automatisierten Inhaltsanalyse analysiert, um rassistische Inhalte zu klassifizieren.  

Nach der Klassifikation werden die Interaktionsraten analysiert, um zu beobachten, wie sich die Interaktionsformen (Anzahl von likes, emoji-Typen, shares, comments) von denen nicht-rassistischer Posts unterscheiden. Zuletzt werden weitere Einflussfaktoren (Postformat, Facebook-Seitenbetreiber*innen u.a.) kontrolliert.

Das Projekt läuft seit Januar 2023. 

Hatespeech: Rassistische Hatespeech (dt. „Hassrede“) ist eine extreme Form von Online-Rassismus, die aus drei Elementen besteht: 1) Beschimpfung, 2) Drohung und c) Anstiftung zu Hass, Diskriminierung, Ausgrenzung oder sogar Gewalt. Eine Anstiftung zur Ausgrenzung ist zum Beispiel ein Post mit dem Text „Sozialwohnungen nur für Deutsche“, der mit einem Foto erkennbar muslimischer Menschen begleitet wird. Oft ist (verdeckte) Hatespeech für die Plattformen, Justiz und User*innen schwer zu erkennen, wenn keine eindeutigen Begriffe wie rassistische Schimpfwörter oder eindeutige Formulierungen wie „sie sollen getötet werden“ verwendet werden. Wenn ein Post keine Beschimpfung, Drohung oder Anstiftung enthält, dann kann er rassistisch sein, ist aber laut Definition keine Hatespeech.  

Forschungsstrategien und Methoden

Weitere Forschung

Ausgewählte Literatur 

  • Bliuc, Ana-Maria; Faulkner, Nicholas; Jakubowicz, Andrew; McGarty, Craig (2018): Online networks of racial hate: A systematic review of 10 years of research on cyber-racism. In: Computers in Human Behavior 87, S. 75–86. DOI: 10.1016/j.chb.2018.05.026.  

  • Matamoros-Fernández, Ariadna (2017): Platformed racism: the mediation and circulation of an Australian race-based controversy on Twitter, Facebook and YouTube. In: Information, Communication & Society 20 (6), S. 930–946. DOI: 10.1080/1369118X.2017.1293130. 

  • Sponholz, Liriam (2016): Als der Sommer zu Ende ging: Die Flüchtlingsdebatte im Wiener Wahlkampf auf Facebook. Mannheim.  

  • Sponholz, Liriam (2019): Hate Speech in Sozialen Medien: Motor der Eskalation? In: Heidrun Friese, Marcus Nolden und Miriam Schreiter (Hg.): Rassismus im Alltag: transcript Verlag, S. 157–178.  

  • Sponholz, Liriam (2021): Hass mit Likes: Hate Speech als Kommunikationsform in den Social Media. In: Sebastian Wachs, Barbara Koch-Priewe und Andreas Zick (Hg.): Hate Speech - Multidisziplinäre Analysen und Handlungsoptionen. Wiesbaden: Springer Fachmedien Wiesbaden, S. 15–37. 

  • Sponholz, L., Meuth, AM., Weiberg-Salzmann, M. (2023). Hatespeech, aber normal?. In: Fuchs, M., Motzkau, M. (eds) Digitale Wahlkämpfe. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-39008-2_12  

  • Tynes, Brendesha M.; Lozada, Fantasy T.; Smith, Naila A.; Stewart, Ashley M. (2018): From Racial Microaggressions to Hate Crimes: A Model of Online Racism Based on the Lived Experiences of Adolescents of Color. In: Gina C. Torino, David P. Rivera, Christina M. Capodilupo, Kevin L. Nadal und Derald Wing Sue (Hg.): Microaggression Theory. Hoboken, NJ, USA: John Wiley & Sons, Inc, S. 194–212.