Die „Bekämpfung“ von „hate speech“ in einer wehrhaften Demokratie – Regulierung durch das NetzDG und den DSA

reaktiven Löschung von Inhalten primär auf Grundlage Allgemeiner Geschäftsbedingungen (AGB) der Sozialen Medien („Flucht in die AGB“).

[62] Legt man diese Annahme zu Grunde, führen nicht Löschungen auf Grund gesetzlicher Vorgaben nach dem NetzDG zu einem Overblocking, wohl aber die von den Betreibern sozialer Medien ergriffenen Maßnahmen einer Selbstregulierung. Für den in der Grundstruktur mit dem NetzDG vergleichbaren DSA ist zu erwarten, dass sich auch durch diesen Regulierungsrahmen das Problem eines mittelbar verursachten Overblockings stellt.

1.    Proaktive Löschungen durch automatisierte Filter

Die oben erwähnte Studie hat gezeigt, dass proaktive Löschungen durch automatisierte Filter bei den großen sozialen Medien einen überragenden Anteil bei der Löschung von Inhalten einnehmen, weit vor reaktiven Löschungen auf Grund ihrer AGB und erst Recht vor reaktiven Löschungen auf Grund des NetzDG.

[63]

Automatisierte Filter ersetzen den menschlichen Einsatz beim Herausfiltern bzw. beim Bewerten rechtswidriger Inhalte, was angesichts der großen Masse an digitalen Kommunikationsinhalten wohl die „kostengünstigere“ Variante ist. So wie Betreiber sozialer Medien gerade aus dem US-amerikanischen Bereich schon seit Jahren recht erfolgreich dabei sind, Nacktbilder in ihren Netzwerken herauszufiltern und zu sperren, setzen sie nun also Programme der Künstlichen Intelligenz

[64] auch bei der Suche nach rechtswidrigen Kommunikationsinhalten ein. Aber: Sprache ist ungleich komplexer als Nacktheit, entsprechend schwieriger zu filtern. Und so geschieht es, dass automatische Filterfunktionen – bewusst oder unbewusst – zu sensibel ausgestaltet sind. Es wurde bspw. bekannt, dass die Videoplattform Tiktok Kommentare für andere Nutzer (nicht aber für den Kommentierenden)[65] blockiert, die u.a. folgende Begriffe enthalten: „Auschwitz, gay, Heterosexuelle, homosexuell, LGBTQ, LGBTQI, Nationalsozialismus, Peng Shuai, Porno, Pornografie, Prostitution, queer, schwul, Sex, Sexarbeit, Sklaven, Terroristen“.[66] Dass in einem solchen Fall auch Inhalte blockiert werden, die selbstverständlich von der freien Meinungsäußerung gedeckt sind, ist offensichtlich.

2.    Reaktive Löschungen – Flucht in die AGB

Betrachtet man den – geringen – Anteil reaktiver Löschungen auf Grund von Nutzerbeschwerden, erfolgt wiederum ein weit überwiegender Anteil nicht auf Grundlage des vom NetzDG vorgegebenen strafrechtlichen Maßstabes, sondern auf Grundlage der AGB der

[62] Liesching/Funke, Das NetzDG in der praktischen Anwendung, 2021, Berlin, S. 359 ff. sowie passim (zitiert als Liesching/Funke, 2021, S.).

[63] Bspw. seien bei YouTube im Jahr 2020 94,36% der Löschungen aufgrund automatischer Erkennung erfolgt, bei Facebook im 4. Quartal 2020 97,1 %, Liesching/Funke, 2021, S. 360.

[64] Zur Technik der Künstlichen Intelligenz Ibold, ZStW 134 (2022), 504, 509 ff.

[65] Sog. Shadowbanning, vgl. Meineck, TikTok hat in Deutschland heimlich Kommentare blockiert, 2022, https://netzpolitik.org/2022/geheime-wortfilter-tiktok-hat-in-deutschland-heimlich-kommentare-blockiert/.

[66] Dies ergaben Recherchen von Recherchen von NDR, WDR und tagesschau; dazu: Eckert/Felke/Grill/Milling/Vitlif, TikTok nutzt in Deutschland Wortfilter, 2022, https://www.tagesschau.de/investigativ/tik-tok-begriffe-blockade-101.html.