Was von vielen Internetnutzern längst vermutet wurde, oder sich zumindest als ungutes Bauchgefühl bemerkbar machte, wird mit jeder durchgeführten Studie und mit jeder Enthüllung von Whistleblowern bestätigt: Mädchen und Frauen sind im Internet in erheblichem Maße digitaler Gewalt ausgesetzt – die durch das Geschäftsmodell der Big-Tech-Unternehmen weiter angefacht wird.
Am stärksten betroffen sind davon junge Frauen – Dickpics, sexualisierte Beleidigungen und Drohungen (die Liste ließe sich fortsetzen) sind zu einem Teil ihres Netzalltags geworden. In diesem Artikel betrachten wir die geplante EU-Verordnung für Online-Plattformen (Gesetz über digitale Dienste bzw. Digital Services Act). Wir wollen mehr darüber erfahren, welche Bedürfnisse Betroffene von digitaler Gewalt haben und welche Maßnahmen wirklich Abhilfe schaffen.
HateAid ist eine in ganz Deutschland tätige Beratungsstelle für Opfer von Online-Gewalt. Außerdem haben wir einen Prozessfinanzierungsfonds eingerichtet, mit dem wir Menschen helfen, ihr Recht durchzusetzen. Dabei handelt es sich in unserem Bereich um eine Seltenheit, was vor allem auf die hohen Kosten und die sich oft lange hinziehenden Verfahren zurückzuführen ist. Während Frauen etwa 62 % der Klientinnen und Klienten in unserer Betroffenenberatung ausmachen, ist der Anteil bei der Prozessfinanzierung noch größer – 73 % unserer Klientinnen und Klienten, die Unterstützung bei Rechtsstreitigkeiten suchen, sind weiblich.
Hinter diesen Zahlen verbirgt sich die Tatsache, dass die gegen Frauen gerichteten Inhalte drastischer und daher häufiger rechtswidrig sind. Zudem gibt es grundlegende Unterschiede zwischen den Arten von Gewalt, der Frauen und Männer im Internet ausgesetzt sind. Während heterosexuelle weiße Männer meist wegen ihrer politischen Ansichten oder anderer Themen von öffentlichem Interesse, mit denen sie sich befassen, angegriffen werden, gibt es bei Übergriffen auf Frauen selten einen sachlichen Zusammenhang oder einen Bezug zu den von ihnen vertretenen Positionen.
Stattdessen werden sie allein aufgrund ihres Geschlechts, ihres Aussehens und anderen stark sexualisierten und objektivierenden Merkmalen angegriffen. Hierin besteht der grundlegende Unterschied, wenn man als Frau online unterwegs ist: In der digitalen Welt werden grundlegende Errungenschaften des Feminismus und der Gleichberechtigungsbewegung täglich in Frage gestellt.
Reset. Internet for Democracy / Pollytix – strategic research: Hass in Sozialen Medien Bundesweite repräsentative Befragung von wahlberechtigten Internetnutzer:innen im Juni 2021, https://pollytix.de/veranstaltung/umfrage-zu-hass-im-netz/.
Plan International Deutschland e.V.: „Free to be online? Erfahrungen von Mädchen und jungen Frauen mit digitaler Gewalt“, Mädchenbericht 2020, www.plan.de.
https://www.idz-jena.de/forschung/hass-im-netz-eine-bundesweite-repraesentative-untersuchung-2019/
Reset. Internet for Democracy / Pollytix – strategic research: Hass in Sozialen Medien Bundesweite repräsentative Befragung von wahlberechtigten Internetnutzer:innen im Juni 2021, https://pollytix.de/veranstaltung/umfrage-zu-hass-im-netz/.
Plan International Deutschland e.V.: „Free to be online? Erfahrungen von Mädchen und jungen Frauen mit digitaler Gewalt“, Mädchenbericht 2020, www.plan.de.
https://www.idz-jena.de/forschung/hass-im-netz-eine-bundesweite-repraesentative-untersuchung-2019/
Dies ist der Grund dafür, dass aktuellen Studien und Umfragen zufolge jede dritte Frau in Deutschland im Alter von 18 bis 34 Jahren mindestens einmal im Internet sexuell belästigt wurde, aber nur jeder zehnte Mann in derselben Altersgruppe1. Einer anderen Studie zufolge sind 70 % der jungen Frauen und Mädchen Opfer von digitaler Gewalt geworden und 55 % wurden online sexuell belästigt.2 Nach unseren eigenen Erkenntnissen aus einer kürzlich durchgeführten EU-weiten Umfrage haben über 90 % (!) der jungen Frauen zwischen 18 und 35 Jahren schon einmal Gewalt im Netz erlebt und etwa 50 % waren selbst davon betroffen. So ist das Internet, mit dem Mädchen und junge Frauen aufwachsen: Sie werden mit Nachrichten und Dickpics sexuell belästigt, in den Kommentarbereichen von Social-Media-Plattformen beleidigt, in Vergewaltigungsfantasien und auf manipulierten Bildern objektiviert – und dadurch zum Schweigen gebracht. „Self-Silencing“, also die bewusste Unterdrückung der eigenen Äußerungen, ist im Internet ist zu einer Selbstschutzmethode geworden.
Der durch digitale Gewalt entstehende Silencing-Effekt ist jedoch nicht auf die Opfer beschränkt. Was anderen online widerfährt, wirkt sich auch auf uns aus. Mehr als die Hälfte der Internetnutzer in Deutschland traut sich nicht mehr, im Netz ihre politische Meinung zu äußern oder sich an politischen Debatten zu beteiligen.3 Nach unseren Erkenntnissen handelt es sich dabei nicht um ein ausschließlich in Deutschland zu beobachtendes, sondern um ein europaweites Phänomen.
The Facebook Files, Part 4: The Outrage Algorithm, https://www.wsj.com/podcasts/the-journal/the-facebook-files-part-4-the-outrage-algorithm/e619fbb7-43b0-485b-877f-18a98ffa773f
The Facebook Files, Part 4: The Outrage Algorithm, https://www.wsj.com/podcasts/the-journal/the-facebook-files-part-4-the-outrage-algorithm/e619fbb7-43b0-485b-877f-18a98ffa773f
Bei der Suche nach möglichen Lösungen müssen mehrere Faktoren und Akteure berücksichtigt werden: fehlende Strafverfolgung, unterschiedliche soziale Normen in der Online-Welt, Medienkompetenz und vor allem die Online-Plattformen.
Bei Letzteren handelt es sich um gewinnorientierte Privatunternehmen, die mit dem Ziel gegründet wurden, durch Werbung Rendite zu erzielen, und nicht, um eine sichere und demokratische Nutzung von digitalen Diensten zu gewährleisten – so lautet die zentrale Aussage der jüngsten Enthüllungen der Whistleblowerin Frances Haugen. Wenn solche Unternehmen entscheiden müssen, ob sie lieber die öffentliche Sicherheit stärken oder ihre Gewinnmarge maximieren wollen, hat die Öffentlichkeit meist das Nachsehen. Die Entscheidung von Facebook, einen Algorithmus einzusetzen, der nachweislich das (negative) Engagement der Nutzer fördert und gleichzeitig menschenverachtende und polarisierende Inhalte wie ein Resonanzraum verstärkt, ist ein aktuelles Beispiel für den Interessenkonflikt zwischen Gewinnmaximierung und menschlichem Wohlergehen, in dem sich viele Privatunternehmen befinden4.
Dies ist einer der Gründe, warum weltweit viele Gesetzgeber so sehr darauf bedacht sind, Gesetze zu verabschieden, die mehr Transparenz schaffen und Normen für Tech-Unternehmen festlegen sollen. Sie hoffen, so den Schaden für die öffentliche Sicherheit zu beheben, die Gefährdung der Menschenrechte zu unterbinden oder diesen Entwicklungen zumindest Einhalt zu gebieten.
Der Digital Services Act (DSA) der EU, die Online Safety Bill in Großbritannien und andere vergleichbare Gesetzesentwürfe sind konkrete Versuche, die Plattformen zu regulieren. Einige der früheren Anläufe, die Verbreitung von schädigenden Verhaltensweisen auf Social-Media-Plattformen einzudämmen, erfolgten meist auf freiwilliger Basis. Dazu zählten die beiden EU-Verhaltenskodizes für die Bekämpfung illegaler Hassreden im Internet und zur Bekämpfung von Desinformation. Obwohl die Bewertung der freiwilligen Selbstregulierungsbemühungen weitgehend positiv ausfällt, haben die Institutionen eingeräumt, dass das Problem viel weitreichender ist und sich allein durch Selbstregulierung nicht lösen lässt. Anders ausgedrückt: Auch Entscheidungen von Privatunternehmen, die Interessen der Nutzerinnen und Nutzer höher bewerten als das eigene Gewinnstreben, sind keine ausreichende Lösung.
Einige Länder wie Deutschland, Österreich und Frankreich haben versucht, den Einfluss der Internetgiganten im Alleingang zu regulieren. Da Letztere jedoch unabhängig von nationalen Grenzen tätig sind, sind diese Maßnahmen nur begrenzt wirksam. Diese Tatsache und das Bestreben, eine Zersplitterung des digitalen Marktes zu vermeiden, haben die europäischen Gesetzgeber zum Handeln veranlasst. Bislang wurden zwei Gesetze auf den Weg gebracht – der bereits erwähnte DSA und der Digital Markets Act bzw. das Gesetz über digitale Märkte, das Kriterien für sogenannte Gatekeeper (also marktbeherrschende Unternehmen) festlegen soll. Zur Betrachtung der größeren Zusammenhänge möchten wir jedoch zwei weitere Vorschläge nennen, die im Dezember dieses Jahres vorgelegt werden. Sie haben das Potenzial, den DSA zu ergänzen – was unbedingt genutzt werden sollte, um die Bekämpfung geschlechtsspezifischer digitaler Gewalt zu stärken.
Einer der beiden Vorschläge betrifft die Aufnahme von „Hassverbrechen“ in die Liste der Straftaten mit europäischer Dimension. Dadurch soll ein Mindeststandard für die strafrechtliche Ahndung von Hassverbrechen in allen Mitgliedstaaten geschaffen werden. Der zweite Vorschlag sieht die lang erwartete Einführung einer Richtlinie über geschlechtsspezifische Gewalt vor, die auch den Umgang mit digitaler Gewalt regeln würde.
Das revolutionärste Vorhaben, das derzeit im Europäischen Parlament und im Rat der Europäischen Union verhandelt wird, ist der DSA. Er wird auch als die neue „Verfassung für Online-Plattformen“ in Europa bezeichnet. Die Erwartungen an alle beteiligten Akteure sind enorm hoch.
Leider ist der Schutz der Opfer vor digitaler Gewalt eines der Elemente, die im ursprünglichen Vorschlag zu kurz gekommen sind – dabei ist dies beileibe kein unbedeutender Punkt. Um an die Statistik zu erinnern: Frauen sind wesentlich stärker betroffen. Stattdessen liegt der Schwerpunkt des Vorschlags auf der Schaffung von hochkomplexen Konformitäts- und Aufsichtsregeln und dem Schutz vor der unrechtmäßigen Entfernung von Inhalten – dem so genannten „Overblocking“. Die Kommission hat zwar mehrere Schutzmaßnahmen vorgeschlagen, um eine übermäßige Entfernung von Inhalten zu verhindern, wozu auch ein Beschwerdemechanismus für den Fall, dass Plattformen Inhalte zu Unrecht entfernen, zählt. Den Nutzerinnen und Nutzer stünden jedoch nicht dieselben Möglichkeiten zur Verfügung, um die Entscheidungen der Plattformen anzufechten, wenn diese untätig bleiben.
Grenzenloser Hass im Internet – Dramatische Lage in ganz Europa, 2021, HateAid. https://hateaid.org/wp-content/uploads/2021/11/HateAid-Report-2021-DE.pdf
Where Facebook Spends to Tackle Hate Speech, 2021, Politico, Digital Bridge. https://www.politico.eu/newsletter/digital-bridge/google-antitrust-finale-online-content-enforcer-transatlantic-lawmakers/
Grenzenloser Hass im Internet – Dramatische Lage in ganz Europa, 2021, HateAid. https://hateaid.org/wp-content/uploads/2021/11/HateAid-Report-2021-DE.pdf
Grenzenloser Hass im Internet – Dramatische Lage in ganz Europa, 2021, HateAid. https://hateaid.org/wp-content/uploads/2021/11/HateAid-Report-2021-DE.pdf
Where Facebook Spends to Tackle Hate Speech, 2021, Politico, Digital Bridge. https://www.politico.eu/newsletter/digital-bridge/google-antitrust-finale-online-content-enforcer-transatlantic-lawmakers/
Grenzenloser Hass im Internet – Dramatische Lage in ganz Europa, 2021, HateAid. https://hateaid.org/wp-content/uploads/2021/11/HateAid-Report-2021-DE.pdf
Was passiert also, wenn man Opfer von Verleumdungen, Drohungen, Beleidigungen, der Verbreitung manipulierter Bilder oder gefälschter Profile wird, die unter falscher Identität Lügen verbreiten, und die Plattformen nicht handeln? Diese Frage, die für Millionen von Nutzerinnen und Nutzer relevant ist, wird im DSA bisher schlichtweg nicht behandelt. Betroffene brauchen kein „dickeres Fell“, sondern wirksame Gesetze. Um Frauen effektiv vor Gewalt im Internet zu schützen, müssen wir uns mit den folgenden Aspekten befassen:
1. Löschen von illegalen Inhalten
Bislang ist die Reaktion der Plattformen auf Meldungen über gestohlene Nacktbilder, Vergewaltigungsdrohungen und strafrelevante sexistische Beleidigungen völlig unzuverlässig und willkürlich. Wenn nichts geschieht, bleibt den Nutzerinnen nur der Gang zum Anwalt, um ihre Rechte durchzusetzen. Die Plattformen müssen dazu verpflichtet werden, illegale Inhalte zu entfernen, wenn sie von Nutzerinnen und Nutzer gemeldet werden. Unsere Untersuchungen haben ergeben, dass rund 80 % der Nutzerinnen und Nutzer der Meinung sind, die Plattformen täten nicht genug, um sie vor digitaler Gewalt zu schützen, und dass Gesetze erforderlich seien, um die Plattformen zu kontrollieren5 – ein klares Zeichen dafür, dass die Nutzerinnen und Nutzer eine Regulierung wünschen.
Es muss hinzugefügt werden, dass automatisierte Bewertungsprozesse fehleranfällig sind und der Großteil der Budgets von Big-Tech-Unternehmen für die Bekämpfung von menschenverachtenden Inhalten in englischsprachige Märkte fließen.6
Dies hat zur Folge, dass Hunderte von Millionen nicht englischsprachiger Nutzerinnen und Nutzer als Menschen zweiter Klasse behandelt werden. Hier kann nur die Bereitstellung von ausreichenden Ressourcen für menschliche Moderatoren Abhilfe schaffen.
2. Anbieten von wirksamen Beschwerdemöglichkeiten und Zugang zur Justiz
Erstens sollte, wenn ein interner Beschwerdemechanismus eingeführt wird, dieser für beide Problemursachen zur Verfügung stehen – wenn Plattformen Inhalte vorschnell löschen, aber auch, wenn sie nicht tätig werden. Hoffentlich können wir in ein paar Monaten einige Lehren aus dem deutschen NetzDG ziehen, das diese Option erst kürzlich eingeführt hat.
Zweitens wird oft vorgebracht, die Plattformen wären nicht die geeigneten Institutionen, um zu entscheiden, was illegal ist und was nicht. Das ist ein berechtigter Einwand, aber wir sehen keinen Sinn darin, Nutzerinnen und Nutzern nahezulegen, sich zur Prüfung von Entscheidungen über Inhalte an Gerichte zu wenden, wenn diese nicht zugänglich bleiben. Außerdem wissen viele Nutzerinnen und Nutzer nicht, welche Möglichkeiten sie haben, um Rechtsmittel einzulegen; der Gang zum Gericht birgt ein hohes Kostenrisiko (in der Größenordnung von mindestens einem durchschnittlichen Monatsgehalt in Deutschland), das Ergebnis ist ungewisses und die Wartezeit auf ein Urteil beträgt mitunter bis zu einem Jahr. Daher sollte der DSA Bestimmungen über einen einfachen, schnellen und geschlechtsspezifischen Zugang zu Gerichten für alle Nutzerinnen und Nutzer enthalten.
Doch es reicht nicht, erst bei den Gerichten anzusetzen. Viele Nutzerinnen und Nutzer scheitern bereits daran, Gerichtsverfahren überhaupt einzuleiten, weil Plattformen, die ihren Geschäftssitz im Ausland haben, nicht erreicht werden können. Der Prozess ist zermürbend: Dokumente müssen übersetzt werden und die Zustellung von Dokumenten in andere Länder gestaltet sich oft schwierig. Diese Vorgänge können einfach und benutzerfreundlich gestaltet werden, indem in jedem Mitgliedstaat eine Kontaktstelle für alle Online-Plattformen eingerichtet wird, die für die Nutzerinnen und Nutzer in einer der Amtssprachen des jeweiligen Mitgliedstaats zugänglich ist.
3. Auseinandersetzung mit dem Geschäftsmodell
Schließlich müssen wir das Geschäftsmodell selbst in Angriff nehmen: Immer mehr Menschen verbringen immer mehr Zeit im Internet, so dass mehr Daten über die Nutzer gesammelt und ihnen mehr gezielte Werbung gezeigt werden kann. Automatisierte Empfehlungssysteme sind dafür ausgelegt, die Reichweite von Hassrede und anstößigen Inhalten zu vergrößern und die Nutzerinnen und Nutzer zu extremeren Inhalten zu locken. Ob absichtlich oder nicht, die Plattformen machen Hass zu Geld. Unseren Ergebnissen zufolge möchte die große Mehrheit der Nutzerinnen und Nutzer – etwa 80 % – die Kontrolle über ihre Newsfeeds haben7. Zunächst muss für mehr Transparenz bei Empfehlungssystemen und Algorithmen gesorgt werden. In einem nächsten Schritt muss den Nutzerinnen und Nutzer die Kontrolle über ihre Newsfeeds zurückgegeben werden.
Der DSA bietet eine einmalige Chance, die wir uns nicht entgehen lassen dürfen. Wir müssen sie nutzen, um Nutzerinnen und Nutzer und unsere Demokratien vor digitaler Gewalt und der schädlichen Polarisierung zu schützen, der Online-Plattformen Vorschub leisten.
Unsere Erkenntnisse und unsere Arbeit mit Opfern von digitaler Gewalt zeigen, dass viele Nutzerinnen und Nutzer diese Ziele teilen.
Wenn du noch heute etwas unternehmen willst, unterzeichne unsere Petition #makeitsafe:
https://hateaid.org/petition/stop-violence-against-women-online-makeitsafe/