Die „Bekämpfung“ von „hate speech“ in einer wehrhaften Demokratie – Regulierung durch das NetzDG und den DSA

Im November 2022 ist nun mit dem Digital Services Act (DSA)

[50] eine unionsweite Regelung in Kraft getreten, die im Hinblick auf rechtswidrige Inhalte[51] auf ein ähnliches Regelungskonzept wie das NetzDG setzt. Ab Februar 2024 sollen für Anbieter von „Online-Plattformen“ u.a. folgende Pflichten gelten: Verpflichtung zur Einrichtung eines Melde- und Abhilfeverfahrens zur Meldung rechtswidriger Inhalte,[52] zu einer Entscheidung über die gemeldeten Informationen „zeitnah, sorgfältig, frei von Willkür und objektiv“[53], versehen mit einer entsprechenden Begründung gegenüber den betroffenen Nutzern[54] und zuletzt zu einer Meldung des Verdachts auf begangene oder zukünftige Straftaten in Bezug auf das Rechtsgut Leben oder „Sicherheit“ einer Person.[55] Sehr große Online-Plattformen[56] werden zuletzt verpflichtet, eine umfangreiche Risikobewertung und Risikominderungsmaßnahmen zu ergreifen;[57] der DSA stellt jedoch klar, dass sich daraus keine allgemeine Verpflichtung zur proaktiven Kontrolle von Inhalten ergibt.[58]

Diese „reaktive“ Verantwortung der Netzwerkbetreiber ist nicht unumstritten. Es geht dabei weniger um die damit verbundene Beeinträchtigung ihrer (auch grundrechtlich geschützten) ökonomischen Interessen

[59] – soziale Medien sind die Plattform zur Verbreitung von hate speech und deren Zunahme lässt sich auch auf die zunehmende Verbreitung digitaler Medien zurückführen.[60] Wenn nun also von der Tätigkeit der Betreiber sozialer Medien Risiken ausgehen, erscheint es gerechtfertigt, sie im beschriebenen Sinne in die Verantwortung zu nehmen, selbst wenn sie nicht die „Verursacher“ digitalen Hasses sind. Die Kritik bezieht sich vielmehr darauf, dass die vom NetzDG statuierte reaktive Verantwortung faktisch zu einem „Overblocking“ führe, dass also nicht nur rechtswidrige, d.h. strafrechtsrelevante Inhalte gelöscht werden, sondern auch solche, die diese Grenze noch nicht überschreiten, sondern vielmehr vom Grundrecht auf freie Meinungsäußerung gedeckt sind.[61]

  III.        „Overblocking“ – Democracy becomes (too) militant?

Eine Teilevaluation zu den Auswirkungen des NetzDG aus dem Jahre 2021 ist zum Ergebnis gelangt, dass die kurzen Löschungsfristen und die bei Zuwiderhandlung angekündigten hohen Bußgelder des NetzDG wohl eine Ausweichbewegung der Betreiber sozialer Medien in Richtung eines Overblocking herbeigeführt haben. Diese Ausweichbewegungen bestünden in der proaktiven Löschung von Inhalten v.a. mit Hilfe automatisierter Filter sowie in einer

[50] Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19.10.2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG (Gesetz über digitale Dienste) in Kraft getreten zum 16.11.2022 mit Geltung ab dem 17.2.2024.

[51] Der Digital Services Act gilt allgemein für digitale Vermittlungsdienste und soll ein sicheres, vorhersehbares und vertrauenswürdiges Online-Umfeld schaffen, vgl. Art. 1 Abs. 1 DSA sowie die Erwägungsgründe 3-5; es geht nicht nur um Vorgaben zum Umgang mit rechtswidrigen Inhalten, der DSA ist somit breiter angelegt als das NetzDG.

[52] Art. 16 Abs. 1 DSA; die Rechtswidrigkeit eines Inhalts bestimmt die Verordnung nicht selbst, rechtswidrig sollen Inhalte sein, deren Informationen „nicht im Einklang mit dem Unionsrecht oder dem Recht eines Mitgliedstaats stehen“, Art. 1 lit. h DSA.

[53] Art. 16 Abs. 6 DSA.

[54] Art. 17 DSA.

[55] Art. 18 DSA.

[56] Zum Begriff der Online-Plattform bzw. der großen Online-Plattform Art. 1 lit. i, Art. 33 DSA.

[57] Art. 34, 35 DSA.

[58] Art. 8 DSA – „Keine allgemeine Verpflichtung zur Überwachung oder aktiven Nachforschung“.

[59] Vgl. dazu Frenzel, JuS 2017, 414, 415 f.

[60] Siehe oben A.II.

[61] Papier, NJW 2018, 3030; Guggenberger, ZRP 2017, 98, 100; Kalscheuer/Hornung, NVwZ 2017, 1721, 1723; Koreng, GRUR-Prax 2017, 203, 204; Nolte, ZUM 2017, 552, 555 ff. A.A. Eifert/Gostomzyk, Netzwerkrecht, 2018, S. 9 f., 35 f.