STREIT 4/2021

S. 152-156

Das Netz als antifeministische Radikalisierungsmaschine – zur Bedeutung von Frauenhass als Element extremistischer Strömungen und der radikalisierenden Wirkung des Internets. Policy Paper vom 09.09.2021 (Auszug aus Teil II, S. 6-11)

Teil I: Der djb hält es für dringend geboten, dem bisher vernachlässigten Aspekt des Antifeminismus als Prinzip extremistischer Strömungen die notwendige Aufmerksamkeit zu widmen. (…)
Teil II: Der djb hält es für überfällig, Antifeminismus und Frauenhass, die bei der extremistischen Radikalisierung im Netz eine zentrale Rolle spielen, mit geeigneten Maßnahmen zu begegnen. (…)

1. Antifeminismus, Frauenhass und Extremismus

(…) „Antifeministische Einstellungen und Ressentiments ziehen sich durch alle Bereiche des Alltagslebens: Antifeministische Aussagen finden sich in Internet-Memes, -Foren und -Chats, Kunst und Musik, aber auch im Schul- und Berufsleben, in Partnerschaften, Familien und Freundschaftsbeziehungen.“1 Der djb teilt die Schlussfolgerung der Studie, dass gerade in dieser „breiten Anschlussfähigkeit“ des Antifeminismus eine „fundamentale Bedrohung demokratischer und moderner Entwicklungen im Sinne der Emanzipation und Freiheit von Lebensentwürfen“2 liegt. Auf diesem Fundament kann sich Antifeminismus zu Frauenhass steigern und zur „Einstiegsdroge“ in extremistisches Denken werden. (…)

2. Wirkmechanismen des Netzes und Regulierungsnotwendigkeiten

Rechtliche Ansatzpunkte, der antifeministisch radikalisierenden Wirkung des Netzes etwas entgegenzusetzen, müssen in den Kontext der allgemeinen rechts- und netzpolitischen Debatte gestellt werden. (…)
Insbesondere muss er [der Gesetzgeber] die Tech-Unternehmen dergestalt in die Pflicht nehmen, dass sie Verantwortung für Inhalte und Verbreitungsmechanismen übernehmen.3 (…)
Die vermeintlich kostenlose Nutzung von Informationen und Diensten wird durch die Erhebung, Zusammenführung, Auswertung und Weitergabe von Daten gegenfinanziert. Zu diesem Zweck sind Algorithmen darauf ausgelegt, User*innen möglichst lange auf den Plattformen zu halten. Dabei stellen die von den Online-Diensten eingesetzten Algorithmen, wie etwa für Empfehlungssysteme oder Werbeanzeigen, weitgehend undurchsichtige Black-Boxen dar. Die spezifische Arbeitsweise der Algorithmen, der erhebliche Radikalisierungsmechanismen innewohnen können (vgl. die Ausführungen unter I.2.), muss überprüfbar gemacht werden. (…) In einem zur Bundestagswahl 2021 vorgelegten Forderungspapier hat sich der djb auch zur Regulierungsnotwendigkeit von Algorithmen positioniert: (…).4
Im vorliegenden Kontext sind die ersten Regulierungsansätze im neuen Medienstaatsvertrag von Interesse, der Plattformen erstmalig differenziert definiert und eine Regulierung enthält zu Transparenzpflichten für sogenannte „Medienplattformen“ (eine Art Medien zusammenfassendes Gesamtangebot, wie Magenta TV), „Benutzeroberflächen“ (z.B. Smart-TVs) und sogenannte „Medienintermediäre“ (Inhalte-aggregierende Suchmaschinen wie Google, auch Facebook, Twitter und User-Generated-Content-Portale).5 Allerdings werden explizit nur Medienintermediäre auch auf Diskriminierungsfreiheit verpflichtet.6 (…)
Das Geschäft mit den Daten ermöglicht es, Angebote auf der Grundlage individueller Profilbildung von Nutzer*innen zu erstellen. (…) Sie kann in das Recht auf informationelle Selbstbestimmung (nach Art. 1 Abs. 1, 2 Abs. 1 GG) bzw. das ähnlich motivierte Recht auf Datenschutz (Art. 7 bzw. Art. 8 EU-GRCh) eingreifen.7 Noch weniger hinnehmbar ist diese Personalisierung, wenn dadurch Antifeminismus und Frauenhass von den Empfehlungssystemen zielgenau an anfällige Zielgruppen ausgespielt werden. (…)
Soweit im Bereich des „native Advertising“ („getarnte“ Werbung im personalisierten medialen Umfeld) bezahlte Werbung und Werbekennzeichnungen faktisch von der Mehrheit der Nutzenden nicht mehr wahrgenommen werden und sexualisierte Bild- und Formensprache mediale Räume überdominiert, müssen weitere rechtliche Instrumentarien entwickelt werden, um diese Entwicklung zu unterbinden. Zu denken ist hier an verschärfte Kennzeichnungspflichten oder aber auch ein gesetzliches Verbot sexistischer Werbung.8
Der djb begrüßt grundsätzlich die Idee eines Digitalen Gewaltschutzgesetzes, das in einem richterlichen Verfahren die Löschung und/oder (zeitweilige) Sperrung von Accounts ohne Klarnamenpflicht erlaubt.
Unverzichtbar ist in diesem Zusammenhang die Verbandsklage, die es ermöglicht, dass die Rechte Betroffener nicht individuell durchgesetzt werden müssen. Ein gerichtliches Verfahren, das anonym und opferschützend die zeitweilige oder auch dauerhafte gerichtliche Sperrung von Accounts, die rechtswidrige Äußerungen senden, binnen weniger Stunden mit Hilfe von einstweiligen Verfügungsverfahren vor fachlich spezialisierten Gerichten ermöglicht, könnte eine effektive Rechtsdurchsetzung darstellen.

3. Weiterentwicklung des Netzwerkdurchsetzungsgesetzes

Für Plattformen mit weniger als zwei Millionen registrierten inländischen Nutzer*innen sollte die Anwendung des NetzDG zumindest in abgestufter Form erfolgen. Auch das Kriterium der „spezifischen Inhalte lässt zu viele Plattformen, wie etwa Gaming-, aber auch Pornographieplattformen, außer Betracht und sollte wegfallen oder spezifiziert werden. Der Gesetzgeber ging ursprünglich bei der Ausnahmeregelung für Plattformen, die darauf angelegt sind, nur spezifische Themen zu verbreiten, insbesondere bei beruflichen Netzwerken, davon aus, derart thematisch und personell eingegrenzte Netzwerke bedürften keiner gesetzlichen Compliance-Regeln. Diese Annahme hat sich jedoch als Trugschluss erwiesen. Längst bieten z.B. Gaming-Plattformen ihren Nutzer*innen eine Mischung aus Foren, Chat-App, Live-Streaming und Videokonferenzen. Auch wird pornographisches Material, das ohne Zustimmung der Beteiligten und zur Erniedrigung oder Erpressung der gefilmten Personen im Netz verbreitet wird, auf solchen Plattformen in großem Stil geteilt. Hassrede und digitale Rechtsverletzungen gegenüber Frauen finden sich also auch auf Plattformen mit „spezifischen Inhalten“. Diese dürfen nicht länger von den Pflichten des NetzDG ausgenommen werden.
Eine Einbeziehung von Messengerdiensten wie Telegram oder WhatsApp mit Millionen von Nutzerinnen ist dringend erforderlich. Auch die Bundesregierung verweist auf volksverhetzende Einträge auf dem Messengerdienst Telegram wie auf Ausweichbewegungen weg von den Plattformen, die dem NetzDG unzweifelhaft unterfallen, etwa hin zu Telegram.9 Hier kann häufig nicht mehr von einer Individualkommunikation gesprochen werden. Es handelt sich um Kommunikationsräume, in denen sich Kommunikation typischerweise an eine Mehrzahl von Adressatinnen richtet bzw. zwischen diesen stattfindet. Dabei kann es sich um Gruppen mit bis zu 200.000 Mitgliedern oder „Channels“ mit einer unbegrenzten Zahl von Mitgliedern handeln. Die Annahme in § 1 Abs. 1 S. 3 NetzDG, nach der sich Dienste stets klar nach Individual- und nach Gruppen-Kommunikation unterscheiden lassen, ist nicht mehr aufrechtzuerhalten. Der djb begrüßt, dass diese Auffassung, Presseberichten zufolge, von der Bundesregierung geteilt wird; danach soll das Bundesamt der Justiz zwei Bußgeldverfahren gegen Telegram führen.10
Zudem bauen Extremisten inzwischen auch eigene soziale Netzwerke auf.11 Es wird zu prüfen sein, inwieweit die Dienstleister von Infrastruktur, wie Webhoster, in diesen Fällen für die Bekämpfung illegaler Inhalte in die Pflicht genommen werden können.
Die Löschpflichten sind dahingehend auszudehnen, dass auch sämtliche auf den Plattformen befindlichen Kopien des rechtswidrigen Inhalts sowie sinngleiche Postings zu suchen, zu entfernen oder zu sperren sind. Die in der Entscheidung des EuGH zum Fall der österreichischen Grünen-Politikerin Eva Glawischnig-Piesczek vom 3. Oktober 2019 aufgezeigten Möglichkeiten sind auszuschöpfen.12
Um auch bei den Transparenzpflichten der Geschlechterdimension Genüge zu tun, müssen Plattformen verpflichtet werden, Berichte geschlechtsspezifisch aufzuschlüsseln. Nur so wird die besondere Betroffenheit von Frauen sichtbar und dokumentiert. Dies betrifft auch die Frage, inwieweit Männer überproportional als Urheber von Hass im Netz in Erscheinung treten. Angesichts der Bedeutung von Algorithmen sind die Informationspflichten von Plattformen zudem auf die Frage zu erstrecken, ob und welche Sicherungsmechanismen zur Verhinderung diskriminierender Effekte von Algorithmen getroffen wurden. Der djb regt generell wegen der dynamischen Entwicklung an, zur weiteren Konkretisierung der Transparenzpflichten flexiblere Regelungsmöglichkeiten zu schaffen, zum Beispiel in Form einer Verordnungsermächtigung.
Den Plattformen ist vorzugeben, bei Beschwerden über Inhalte die gemeldeten Inhalte zunächst nach den Regeln des NetzDG und erst nachrangig nach den Geschäftsbedingungen der Plattformen zu behandeln, um die volle Anwendung und Wirkung des NetzDG zu gewährleisten. Von Interesse sind in diesem Kontext die aktuellen Urteile des Bundesgerichtshofs vom 29. Juli 2021 (III ZR 179/20 und III ZR 192/20) zur Löschung von Nutzerbeiträgen und Kontensperrung bei Verstößen gegen die in den Bedingungen festgelegten Kommunikationsstandards.13 Sie bestätigen das Recht zur Löschung, definieren aber Anhörungsrechte von Betroffenen.
Die Bundesregierung wird aufgefordert darauf einzuwirken, dass der geplante Digital Services Act (DSA) – so sehr eine Harmonisierung der Plattformregulierung zu begrüßen ist – nicht hinter den bestehenden Regelungen etwa des NetzDG zurückbleibt. Die geplanten Regelungen des DSA müssen daher genau geprüft und im Sinne der Betroffenen gerade auch bezüglich der Geschlechterdimension weiterentwickelt und präzisiert werden.

4. Strafrechtliche Forderungen

Dem Staat kommt verfassungsrechtlich eine Pflicht zum Schutz elementarer Rechtsgüter, unter anderem zum Schutz von Leib und Leben, des Persönlichkeitsrechts und der Meinungsfreiheit als gleichen Rechten, zu. Zugleich ist er aufgrund Art. 1 lit. a, b Istanbul-Konvention (IK) verpflichtet, Frauen vor allen Formen von Gewalt zu schützen und einen Beitrag zur Beseitigung jeder Form der Diskriminierung von Frauen zu leisten. Bei der Strafverfolgung ist die Bedeutung antifeministischer und sonst geschlechtsspezifischer Tatmotive zu erkennen und angemessen auch im Hinblick auf ihre diskriminierende und antidemokratische Tragweite zu berücksichtigen. (…)
Es bedarf zudem einer geschlechtergerechten Anwendung des geltenden Rechts. Zum Beispiel liegt das Mordmerkmal der sonst niedrigen Beweggründe nach § 211 Abs. 2 4. Alt. StGB bei Tötungen vor, die aus Frauenhass heraus begangen werden. Das Vorliegen dieses Tatmotivs ist insbesondere bei terroristischen Akten, unter deren Opfern Frauen sind, sorgfältig zu prüfen und im Falle des Vorliegens separat als niedriger Beweggrund in der Urteilsbegründung zu benennen. Der Straftatbestand der Beleidigung gem. § 185 StGB sollte konsequent auf Äußerungen angewendet werden, mit denen Frauen zu Sexualobjekten herabgewürdigt werden. Bei Kollektivbeleidigungen ist sorgfältig zu prüfen, ob im einzelnen Fall eine konkrete Frau oder eine hinreichend abgegrenzte Gruppe von Frauen getroffen werden sollte, und es ist gegebenenfalls gem. § 185 StGB zu bestrafen. Bei Abwägung des Persönlichkeitsrechts der betroffenen Person mit der Meinungsfreiheit der beleidigenden Person ist bei der Anwendung des § 185 StGB der Silencing-Effect von Hassrede zu beachten. Es sind also auch negative Auswirkungen von Hassrede auf die Meinungsfreiheit und gleiche demokratische Teilhabe betroffener Personen einzubeziehen, die häufig marginalisierten Gruppen angehören. Dabei ist das „Gewicht der Meinungsfreiheit [...] umso geringer, je größer der Bezug der Äußerung zu einem Diskriminierungsmerkmal aus Art. 3 Abs. 3 GG ist, insbesondere wenn die Äußerung geeignet ist, abschreckende Effekte auch auf Dritte und somit auf den demokratischen Diskurs insgesamt zu entfalten.“14
Um die Rechtsanwender*innen für geschlechtsspezifische Gewalt zu sensibilisieren, ist die Teilnahme an Fortbildungen zum Thema geschlechtsspezifische Gewalt für Staatsanwältinnen und Richter*innen verpflichtend vorzusehen. (…)
Darüber hinaus gilt es, gesetzliche Regelungslücken zu schließen:
Das Merkmal der „geschlechtsspezifischen Beweggründe“ ist ausdrücklich in die allgemeine Strafzumessungsregelung des § 46 Abs. 2 StGB aufzunehmen, um die Staatsanwaltschaften und Gerichte zur angemessenen Berücksichtigung derartiger Tatmotive anzuhalten. Es wurde versäumt, dies bereits mit dem Gesetz zur Bekämpfung des Rechts­ex­tremismus und der Hasskriminalität zu tun. Zwar sind schon jetzt antifeministische oder frauenfeindliche Tatmotive als strafschärfende sonstige menschenverachtende Beweggründe nach § 46 Abs. 2 StGB bei der Strafverfolgung zu erkennen und zu berücksichtigen, allerdings wird ihr Vorliegen häufig verkannt.15
Unzumutbar aufgedrängte Sexualität, wie z.B. verbale sexuelle Belästigung, die vor allem Frauen, trans, inter und homosexuelle Personen betrifft, sollte zudem in einem eigenen Straftat- oder Ordnungswidrigkeitstatbestand erfasst werden.16
Der zwischenzeitlich vom Bundestag beschlossene Straftatbestand der verhetzenden Beleidigung gem. § 192a StGB sollte um Gruppen ergänzt werden, die durch das Geschlecht bestimmt werden. Bislang berücksichtigt die Norm zwar die sexuelle Orientierung als Merkmal, allerdings fehlen durch das Geschlecht bestimmte Gruppen, wie weibliche, trans und inter Personen, obwohl auch diese häufig von Beleidigungen, auch verhetzenden Beleidigungen, betroffen sind.
Erhebliche Defizite gibt es zudem bei der Daten­erhebung. (…) Konkret sind im Kriminalpolizeilichen Meldedienst politisch motivierte Kriminalität (KPMD PMK) und Hasskriminalität als Kriminalität, die sich u.a. gegen Personen aufgrund ihrer sexuellen Orientierung, ihres Geschlechts oder ihrer sexuellen Identität richtet, unabhängig von einer Zurechnung zu den Phänomenbereichen „links“, „rechts“, „religiöse Ideologie“ und „ausländische Ideologie“ zu erfassen. Zwar sind Antifeminismus und Frauenhass häufig Teil rechtsextremistischer Ideologien, allerdings können sie als eigenständige ideologische Ausrichtung betrachtet werden und sollten als solche erfasst werden. Hinzu kommen Taten, die sich nicht Ideologien zurechnen lassen, oder die nicht innerhalb von Ideologien verortet werden und dennoch aufgrund eines geschlechtsspezifischen Beweggrundes begangen werden. Die Statistiken zur politisch motivierten Kriminalität sind insgesamt, also auch bezüglich aller anderen Vorurteilsmotive, um Aufschlüsselungen nach Geschlecht zu ergänzen; und zwar sowohl bezogen auf die Täter*innen, als auch bezogen auf die Opfer von Vorurteilskriminalität. Zudem ist das Geschlecht der Opfer in allen Deliktsbereichen der Polizeilichen Kriminalstatistik (PKS) zu erfassen, um auch bei Straftaten wie Beleidigung und Bedrohung eine geschlechtsspezifische Dimension erkennen zu können. Um neben der Betroffenheit von Frauen auch die Betroffenheit von trans und inter* Personen erfassen zu können, ist im KPMD PMK und in der PKS insgesamt eine Abkehr von der binären Aufteilung erforderlich.
Zudem sind Änderungen in strafprozessualer Hinsicht erforderlich. Antifeminismus und Frauenhass haben nicht nur eine demokratiegefährdende Wirkung, sie führen auch zu erheblichen psychischen Beeinträchtigungen der Betroffenen, die sich im strafgerichtlichen Verfahren fortsetzen können. Zur Unterstützung im Verfahren sieht das Gesetz die Möglichkeit einer kostenfreien psychosozialen Prozessbegleitung vor, allerdings derzeit nur in bestimmten, eng gefassten und zum Teil im Ermessen des Gerichts bestehenden Konstellationen. Der Zugang zur kostenlosen psychosozialen Prozessbegleitung knüpft dabei nicht an den Bedarf an, sondern wird nach § 406g Abs. 3 S. 1 StPO durch den Verweis auf § 397a StPO per se nur Opfern bestimmter Straftaten gewährt. Angesichts der Bandbreite an Strafnormen, in denen sich Antifeminismus und Frauenhass niederschlagen können, ist für den Anspruch auf kostenfreie psychosoziale Prozessbegleitung eine Abkehr von bestimmten Deliktskategorien und die Gewährung des Anspruchs nach Bedarf der Verletzten zu fordern.
Um eine effektive Strafverfolgung von Hate­speech im digitalen Raum zu ermöglichen, sollte die Beleidigung in diesen Fällen auch ohne Strafantrag der verletzten Person verfolgt werden können, wenn dies den Interessen der verletzten Person nicht widerspricht. Zudem sind für Straftaten im Zusammenhang mit digitaler Gewalt flächendeckend Schwerpunktstaatsanwaltschaften mit einer ausreichenden personellen und sachlichen Ressourcenausstattung einzuführen.

5. Sonstige Ansätze

Der djb konzentriert sich in seinem vorliegenden Policy Paper auf rechtliche und rechtspolitische Ansätze. Es versteht sich von selbst, dass dem Recht zwar eine zentrale Rolle dabei zukommt, der antifeministisch radikalisierenden Wirkung des Netzes entgegenzuwirken. Gleichwohl bleiben weitere Maßnahmen notwendig.
So sollten etwa im Rahmen von Bildungskampagnen (z.B. an Schulen, im TV, in Sozialen Medien) Nutzer*innen von Sozialen Netzwerken über deren Gefahren aufgeklärt werden. Voraussetzung für die Teilhabe in einer digitalisierten Gesellschaft ist der Erwerb „digitalisierungsbezogener Kompetenzen“ zur Ermöglichung einer „digitalen Souveränität“, wie es das Gutachten zum 3. Gleichstellungsbericht der Bundesregierung ausführt.17 Außerdem sollten die Nutzer*innen informiert werden, wie sie antisemitische, rassistische und antifeministische Inhalte melden und sich aus der Abwärtsspirale der Algorithmen befreien können. Auf diese Weise erfährt Counterspeech eine größere Breitenwirkung und wird nicht allein Aktivist*innen (wie #ichbinhier oder #hatenotfound) und den Plattformbetreibern überlassen.

Hinweise der Redaktion
Siehe zur Problematik des Schutzes vor geschlechtsbezogener Gewalt im Internet auch:

Anke Stelkens: Mit dem Smart-Meter-Gateway öffnet das BSI Tür und Tor für häusliche Gewalt, in: STREIT 1/2021, S. 31 ff.
Anke Stelkens: Anmerkung zum Urteil des EuGH „Glawischnig-Piesczek“ vom 3.Oktober 2019 – C-18/18, in: STREIT 1/2020, S. 26 ff.
Anke Stelkens: Smarte Gewalt – Digitalisierung häuslicher Gewalt im Internet of Things, in: STREIT 1/2019, S. 3 ff.
Anke Stelkens: Digitale Gewalt und Persönlichkeitsrechtsverletzungen, in: STREIT 4/2016, S. 147 ff.

  1. Höcker/Pickel/Decker, Antifeminismus – das Geschlecht im Autoritarismus? Die Messung von Antifeminismus und Sexismus in Deutschland auf der Einstellungsebene, S. 250. in: Decker/Brähler (HG), Autoritäre Dynamiken, 2020 (online unter www.boell.de).
  2. Ebd., S. 278.
  3. Forderungen nach der Schaffung eines eigenständigen neuen Ökosystems öffentlicher Kommunikation, das einer geschlechtergerechten sowie intersektionalitätsbewussten digitalen Grundversorgung und der Ermöglichung gleichberechtigter politischer Partizipation verpflichtet ist, finden sich im Gutachten zum Dritten Gleichstellungsbericht der Bundesregierung: Sachverständigenkommission für den Dritten Gleichstellungsbericht der Bundesregierung (2021): Digitalisierung geschlechtergerecht gestalten. Gutachten für den Dritten Gleichstellungsbericht der Bundesregierung, S. 137 ff., Berlin 2021 (online unter www.dritter-gleichstellungsbericht.de/).
  4. Djb, Frauenpolitische Forderungen zur Bundestagswahl 2021 (online unter www.djb.de/).
  5. § 2 Nr. 14 (Medienplattform), Nr. 15 (Benutzeroberfläche) bzw. Nr. 16 (Medienintermediär) MStV und § 85 bzw. § 93 MStV (Transparenzpflicht).
  6. § 94 MStV (Diskriminierungsverbot).
  7. So Fröhlich/Spiecker gen. Döhmann, „Können Algorithmen diskriminieren?“ auf: Verfassungsblog, verfassungsblog.de/koennen-algorithmen-diskriminieren/.
  8. Siehe dazu Völzmann, „Spießigkeit oder Geschlechtergerechtigkeit? – Für ein Verbot sexistischer Werbung!“, in: STREIT 2/2016, S. 51 ff. (online unter www.streit-fem.de).
  9. Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Dr. Jürgen Martens, Stephan Thomae, Renata Alt, weiterer Abgeordneter und der Fraktion der FDP, BT-Drs. 19/23763.
  10. Stenner/Reuter „Telegram soll sich an das NetzDG halten“ auf Netzpolitik.org, 9.2.2021 (online unter netzpolitik.org/2021/bussgeldverfahren-telegram-soll-sich-an-das- netzdg-halten/).
  11. Fielitz/Schwarz „Hate not found“, 2020, S. 55 (online unter www.idz-jena.de/fileadmin/userupload/Hatenotfound/WEBIDZFBHatenotFound.pdf?saraecid=nlupd_1jtzCCtmxpVo9GAZr2b4X8GquyeAc9&nlid=h0s9e6sz).
  12. EuGH, Urteil vom 3.10.2019, Glawischnig-Piesczek, C-18/18, ECLI:EU:C:2019:821, in: STREIT 1/2020, S. 22 ff. mit Anmerkung von Anke Stelkens, (online unter eur-lex.europa.eu/ legal-content/DE/TXT/HTML/?uri=CELEX:62018CJ0018&from=DE).
  13. Pressemitteilung online unter www.bundesgerichtshof.de.
  14. Markard/Bredler „Jeder schweigt für sich allein“ auf Verfassungsblog, 20.5.2021 (online unter verfassungsblog.de/alleine-schweigen/).
  15. Vgl. bereits djb st20-01, S. 5, www.djb.de.
  16. Ebd., S. 5 f.
  17. Djb, Frauenpolitische Forderungen zur Bundestagswahl 2021, S. 83 ff. (online unter www.djb.de).