Deepfakes stellen seit einigen Jahren eine neue gesellschaftliche und speziell auch rechtliche Herausforderung dar. Unter dem Begriff Deepfake versteht man nach Art. 3 Nr. 60 KI-VO (VO (EU) 2024/1689) einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde. Die sich stetig verbessernden Deepfake-Technologien versprechen Kriminellen wie Strafverfolgern völlig neue Möglichkeiten. Bislang stehen im Fokus des strafrechtlichen Diskurses beinahe ausschließlich die Strafbarkeit verletzender Deepfakes de lege lata und ferenda. Andere Fragestellungen fristen weitgehend ein Schattendasein.[1] Dieser Beitrag soll einen Überblick über Deepfakes im Kontext des Strafrechts mit besonderem Fokus auf diese Fragestellungen liefern. Für ein umfassendes Verständnis der Materie ist zunächst erforderlich die technischen Hintergründe nachzuvollziehen (A.). Nach einer Untersuchung der Strafbarkeit verletzender Deepfakes (B.), wird ein Blick auf die
Möglichkeiten geworfen, die Deepfakes für die Strafverfolgung eröffnen könnten (C.) und abschließend wird skizziert, wie die Verbreitung laienfreundlicher Deepfake-Technologien das Beweisrecht der StPO herausfordern werden (D.).
A. Technische Einführung
Der Begriff Deepfakes ist auf die beiden Wörter Deep Learning und Fake zurückzuführen, wobei Deep Learning die Methode beschreibt, die zur Erzeugung solcher Manipulationen genutzt wird. Deep Learning ist ein Teilgebiet des maschinellen Lernens, das wiederum eine Unterdisziplin der künstlichen Intelligenz ist. Das Rückgrat des Deep Learning bilden künstliche neuronale Netze (KNN). Mit diesen wird versucht, die Funktionsweise des menschlichen Gehirns zu simulieren. Ein KNN besteht aus Knotenpunkten, sogenannten Neuronen, die in Schichten organisiert sind. Jedes Netz besitzt eine Eingabeschicht, eine Ausgabeschicht und mindestens eine dazwischenliegende sogenannte versteckte Schicht (engl. hidden layer), in der relevante Merkmale aus den Eingabedaten gezogen werden. Dazu sind die einzelnen Knoten einer Schicht mit den Knoten aus der vorausgehenden bzw. nachfolgenden Schicht über gewichtete Verbindungen, sogenannte Kanten, verbunden. Ziel ist es, die Gewichte dieser Verbindungen mithilfe von Trainingsdaten so zu modellieren, dass der Fehler zwischen der Ausgabe des KNN und dem tatsächlichen Wert minimiert wird. So lernt das KNN Vorhersagen oder Entscheidungen für unbekannte Eingabedaten zu treffen.[2]
Diese Technologie eröffnet eine Vielzahl an Manipulationsmöglichkeiten. Im Bild- und Videobereich kommen Verfahren wie Face Swap, also der Austausch von Gesichtern, Face Reenactment sowie Puppeteering zum Einsatz. Letzteres umfasst die Kontrolle von Lippenbewegungen, Mimik, Kopf- und Körperbewegungen.[3] Darüber hinaus sind auch Editierung und Synthetisierung möglich, also die Anpassung oder Erzeugung bestimmter Bild- oder Videomerkmale.[4] Im Audiobereich zählen Technologien zur Umwandlung von geschriebenem Text in mit synthetischen Stimmen gesprochenen Text[5] und die Umwandlung einer Stimme in die
Stimme einer anderen Person, auch genannt Voice Conversion, zu den zentralen Verfahren.[6]
Das Voranschreiten der Technologie macht es notwendig, dass Detektionsmöglichkeiten entwickelt werden. Vielfach ist die Detektion noch durch genaues Betrachten des Mediums möglich. Deepfakes enthalten oft Anomalien, die mit bloßem Auge erkennbar sind, wie fehlerhafte Bewegungen, unnatürlich wirkende Gesichtszüge, anatomisch unrealistische Details oder inkonsistente Lichtverhältnisse und unpassende Schatten. Dazu werden aber auch immer mehr technische Möglichkeiten der Detektion entwickelt, die selbst Deep Learning Methoden verwenden, um Anomalien zu erkennen.[7]
B. Deepfakes im materiellen Strafrecht
Deepfakes werden zunehmend zu strafbaren Zwecken eingesetzt. Die relevanten Delikte lassen sich grob in zwei Kategorien unterteilen.
In der ersten Kategorie können Strafbarkeiten durch den konkreten Einsatz oder die Herstellung (unabhängig vom Inhalt) des Deepfakes begründet werden. Hierunter fallen im Kernstrafrecht insbesondere § 263 StGB (bspw. durch den Enkeltrick oder CEO-Fraud[8]) und § 253 StGB (bspw. durch Sextortion[9]).[10] Auch im Nebenstrafrecht finden sich Strafbarkeiten dieser Kategorie. So können sich die Hersteller von Deepfakes nach §§ 106, 108 UrhG aufgrund der Verletzung von Urheber- und verwandten Schutzrechten strafbar machen.[11] Außerdem sind identifizierende Darstellungen personenbezogene Daten i.S.d. Art. 4 Nr. 1 DSGVO, weshalb die Herstellung und Verbreitung von Deepfakes auch nach § 42 BDSG strafbar sein kann, wenn die dort genannten sehr spezifischen Voraussetzungen erfüllt sind.[12]
Die zweite Kategorie bilden die Delikte, die durch persönlichkeitsrechtsverletzende Inhalte von Deepfakes begangen werden. Die sich hier ergebenden und bislang ungeklärten Deepfake-spezifischen Besonderheiten
werfen die Frage auf, ob das Strafrecht Schutzlücken in Bezug auf persönlichkeitsrechtsverletzende Deepfakes aufweist. Davon geht wenigstens der Bundesrat aus[13] und hat in Folge zweimal beschlossen, den Gesetzesentwurf § 201b StGB-E (Verletzung von Persönlichkeitsrechten durch digitale Fälschung) in den Bundestag einzubringen.[14] Ob solche Schutzlücken tatsächlich bestehen, wird im Folgenden untersucht.
I. §§ 185 ff. StGB
Bei Persönlichkeitsrechtsverletzungen ist stets auch an die Ehre und damit an §§ 185 ff. StGB zu denken. Die erste Besonderheit bei Deepfakes ergibt sich bei der Unterscheidung von Tatsachenbehauptung und Werturteil. Eine Tatsachenbehauptung ist jede Äußerung, deren Wahrheitsgehalt überprüfbar ist.[15] Ein Werturteil dagegen ist eine Äußerung, die nicht dem Beweis zugänglich ist und von Elementen der Stellungnahme geprägt ist.[16] Für die Abgrenzung ist das Verständnis der Äußerung aus Sicht eines unvoreingenommenen und verständigen Empfängers relevant.[17] Ausschlaggebend ist, ob das Deepfake vom Durchschnittsbetrachter leicht als solches enttarnt werden kann. Ist dem nicht so, liegt dem Deepfake die Tatsachenbehauptung zu Grunde, das Portraitierte sei tatsächlich geschehen.[18] Ist diese Tatsachenbehauptung dann ehrverletzend, kommen insbesondere die §§ 186 f. StGB in Betracht.[19] Eine Ehrverletzung liegt vor, wenn der betroffenen Person Mängel nachgesagt werden, die bei tatsächlichem Vorliegen den Geltungswert des Betroffenen mindern würden.[20] Im Deepfake Kontext kommen hier insbesondere zwei Fallgruppen in den Sinn: pornographische oder sonst nackte Darstellungen (ganz vorwiegend sind Frauen betroffen[21]) und Personen, denen Worte in den Mund gelegt werden, die sie nie oder nicht in dieser
Form von sich gegeben haben (insbesondere Menschen der politischen Öffentlichkeit[22]).
1. Pornographie/Nacktheit
Bislang ist noch ungeklärt, ob die Darstellung von Nacktheit oder der Mitwirkung an pornographischen Inhalten stets oder nur in bestimmten Kontexten ehrenrührig ist. Gegen die Annahme einer per se vorliegenden Ehrenrührigkeit spricht jedenfalls, dass weder Nacktheit noch Mitwirkung an Pornographie an sich durch die Rechts- oder Gesellschaftsordnung missbilligt werden.[23] In welchen Einzelfällen dennoch eine Ehrenrührigkeit und daher eine Strafbarkeit nach den §§ 185 ff. StGB begründet ist, kann in diesem kurzen Beitrag nicht beleuchtet werden. Die Rspr. wird hier bestimmte Fallgruppen herausbilden müssen.
2. Zuschreibung von Äußerungen
Werden einer Person fremde Worte in den Mund gelegt, entsteht der Eindruck, dass die Person das Geäußerte als eigene Überzeugung repräsentiert. Steht diese vermeintliche Überzeugung nicht im Einklang mit der Rechtsordnung, wird man das Deepfake als ehrenrührig qualifizieren müssen.[24] Besonders Menschen im politischen Leben sehen sich diesem Risiko ausgesetzt. In diesem Kontext ist immer an § 188 StGB zu denken. Allerdings muss dann auch im Rahmen des § 193 StGB eine Abwägung des allgemeinen Persönlichkeitsrechts mit den Freiheiten des Art. 5 GG vorgenommen werden,[25] wobei der Meinungsfreiheit bei öffentlichem Interesse ein gesteigertes Gewicht zukommt.[26] Das allgemeine Persönlichkeitsrecht (hier in Ausprägung des sozialen Geltungswerts) überwiegt dennoch regelmäßig, wenn Darstellungen, die einen Wahrheitsanspruch erheben, diesem nicht gerecht werden.[27] Deepfakes dieser Art dürften ihrem Wahrheitsanspruch nur selten gerecht werden und daher zu einer
Strafbarkeit der Verbreitung führen.[28]
II. § 201a StGB
§ 201a StGB schützt den höchstpersönlichen Lebensraum.[29] Im Deepfakekontext ist hauptsächlich an pornographische oder sonst nackte Darstellungen zu denken. § 201a StGB setzt in allen Varianten eine Bildaufnahme voraus. Es kommt also darauf an, ob Deepfakes eine Bildaufnahme darstellen können. Im Rahmen des Abs. 1 versteht man darunter die visuell erfassbare Reproduktion eines realen Geschehens durch technische Mittel.[30] Ein Deepfake ist keine solche Reproduktion eines realen Geschehens. Gänzlich synthetische Medien scheiden von vornherein aus. Manipulationen von „echten“ Bildaufnahmen (bspw. Face-Swaps) verletzen den höchstpersönlichen Lebensraum regelmäßig erst durch die nachträgliche Veränderung. § 201a I StGB ist aber nur einschlägig, wenn bereits das Original tatbestandlich ist.[31] Deepfakes sind also in den (wohl einzig relevanten) Fällen, in denen erst die Manipulation eine Verletzung des höchstpersönlichen Lebensbereichs bewirkt, nicht von § 201a I StGB erfasst.[32]
Im Rahmen des Abs. 2 wird dies von Teilen der Literatur anders gesehen.[33] Anders als Abs. 1 knüpft Abs. 2 nicht an den Schaffensprozess (Herstellen oder Übertragen) an. Es braucht (nur) die Zugänglichmachung. Diese Unterscheidung scheint der einzige Anknüpfungspunkt für eine extensivere Auslegung des Begriffs der Bildaufnahme in Abs. 2 zu sein.[34] Jedoch suggeriert der Wortteil „Aufnahme“ auch losgelöst von den Tathandlungen des „Herstellens“ oder „Übertragens“ nach allgemeinem Sprachgebrauch die Reproduktion tatsächlichen Geschehens. Gegenstand einer Aufnahme kann demnach nur sein, was sich in Wirklichkeit zugetragen hat. Es ist daher höchst fraglich, ob eine so extensive Auslegung vor dem Hintergrund der Wortlautgrenze des Art. 103 II GG
Bestand haben kann. Nach diesem Verständnis scheiden gänzlich synthetische Medien per se aus. Aber auch manipulierte echte Medien können nicht anders behandelt werden, sonst würde Abs. 2 einen weitergehenden Veränderungsschutz als Abs. 1 bieten, was bedeuten würde, dass den abgebildeten Personen bei Bildaufnahmen, deren Herstellung bereits strafbar ist, ein geringerer Schutz zukommt als bei Bildaufnahmen, bei welchen sich die Strafbarkeit auf mittelbare Eingriffe in das Recht am eigenen Bild beschränkt.[35]
Sollte man Deepfakes dennoch als Bildaufnahmen ansehen, muss das Deepfake geeignet sein, dem Ansehen der abgebildeten Person erheblich zu schaden. Bei Deepfakes, die Nacktheit oder pornographische Inhalte darstellen, wird das bei Herstellung ohne Einwilligung oft pauschal bejaht.[36] Das entspricht aber nicht den zu § 201a II StGB entwickelten Grundsätzen. So zeigt der Umkehrschluss zu Abs. 3, dass die bloße Darstellung von Nacktheit nicht zwingend unter § 201a II StGB fallen soll.[37] Auch explizitere sexuelle Handlungen werden nur als ansehensschädigend verstanden, wenn sie „ungewöhnlicher Art“ sind.[38] Daher wird eine Strafbarkeit der verbreitenden Person selbst bei unterstellter Anwendbarkeit des §201a II StGB auf Deepfakes nicht der Regel entsprechen.[39]
III. § 33 KUG
§ 33 KUG stellt den Verstoß gegen die §§ 22, 23 KUG unter Strafe.[40] Die Frage lautet daher, ob Deepfakes Bildnisse i.S.d. Norm darstellen können. Die offene Formulierung des KUG ermöglicht es auch Medieninhalte, die durch technische Innovation geschaffen wurden, unter die Norm zu fassen.[41] Ein Bildnis i.S.d. § 22 KUG ist die Abbildung einer Person, also die Darstellung der Person in ihrer wirklichen, dem Leben entsprechenden Erscheinung.[42] Ausschlaggebend ist die Erkennbarkeit der
jeweils abgebildeten Person.[43] Deepfakes lassen die dargestellte Person schon ab einer relativ geringen Qualität erkennen. Daher liegt häufig ein Bildnis vor, dessen Veröffentlichung nach § 22 KUG untersagt ist.[44] Eine Schrankenregelung des § 23 KUG wird nur selten einschlägig sein, da nicht als solche erkennbare Manipulationen regelmäßig die berechtigten Interessen des Abgebildeten nach § 23 II KUG verletzen.[45] Tatbestandlich ist § 33 KUG also ein geeignetes Werkzeug, um die Verbreitung von Deepfakes zu regulieren. Die Ausgestaltung als Privatklagedelikt nach § 374 I Nr. 8 StPO führt aber auf Rechtsdurchsetzungsseite zu erheblichen Schwierigkeiten.
IV. Ergebnis
Auch in der zweiten Kategorie gibt es also prinzipiell strafrechtlichen Schutz gegen Deepfakes (zumindest § 33 KUG). Da dieser aber erhebliche Schwierigkeiten auf Rechtsdurchsetzungsebene bereitet und nicht klar ist, ob er das verwirklichte Unrecht (insbesondere bei der Verbreitung von pornographischen Deepfakes, die nach den o.g. Maßstäben zumindest in vielen Fällen nicht unter die Strafbarkeit nach §§ 185 ff. StGB fallen) adäquat unter Strafe stellt, scheint die Implementation einer neuen Strafnorm zunächst sinnvoll. Ob § 201b StGB-E dazu geeignet ist, muss jedoch stark bezweifelt werden.[46]
C. Deepfakes in der Strafverfolgung
Deepfakes sind im strafrechtlichen Kontext vorwiegend negativ konnotiert. In der öffentlichen Wahrnehmung wird der Begriff hauptsächlich mit Manipulationen in sozialen Netzwerken oder Desinformationskampagnen in Verbindung gebracht. Im strafrechtlichen Diskurs bleibt das technologische Potenzial von Deepfakes als Ermittlungsinstrument bislang unterbeleuchtet. Dies ist schon insoweit überraschend, als der Gesetzgeber bereits 2020 mit der Einfügung des § 184b VI Nr. 1 StGB die Tür zu dem Einsatz (audio-)visueller Manipulation im Ermittlungsverfahren ausdrücklich geöffnet und den Einsatz von Deepfakes in dem speziellen
Bereich der Bekämpfung der Verbreitung von dem Gesetz so bezeichneter kinderpornographischer Inhalte ermöglicht hat.[47] Infolge des seitdem erreichten Fortschritts der KI-Technologie liegt es nahe, dass Deepfake-Technologien auf Basis künstlicher Intelligenz der Strafverfolgung auch über den Anwendungsbereich des § 184b VI StGB vielversprechende Ansätze – insbesondere bei der Aufklärung von Straftaten der organisierten Kriminalität – bieten können. Beispielsweise könnte es die computergenerierte Nachbildung einer bestimmten menschlichen Stimme („Voice Cloning“) Ermittlern ermöglichen, verdeckt in geschlossene Täterstrukturen einzudringen. Strafverfolger könnten so gezielt ansonsten nur schwer zugängliche Informationen wie etwa zu Tatplänen oder Bandenstrukturen erlangen.
Während nationale Vorschriften wie die StPO zum Einsatz von KI-Technologien zum Zwecke der Strafverfolgung bislang schweigen, hat die KI-VO bereits den Weg hin zu einer technologisch effektiven Strafverfolgung geebnet. Dabei verfolgt die KI-VO einen risikobasierten Ansatz, wonach KI-Systeme unterschiedlich klassifiziert und je nach Risikostufe unterschiedlichen Regulierungen unterworfen werden.[48] Deepfakes sind danach nicht generell verboten. Für Strafverfolgungszwecke sieht Art. 50 IV 2 KI-VO bei Vorliegen einer entsprechenden gesetzlichen Grundlage sogar ausdrücklich eine Ausnahme von der im Übrigen erforderlichen Kennzeichnungspflicht für die Betreiber von KI-Systemen vor. Die KI-VO geht also davon aus, dass Deepfake-Technologien im Bereich der Strafverfolgung einsetzbar sein können, verlangt für ihre Nutzung jedoch eine Ermächtigungsgrundlage.
Diese Ermächtigungsgrundlage ist auch nach nationalem Recht erforderlich. Zwar erlauben die §§ 161, 163 StPO grundsätzlich eine weitestgehend flexible und damit insbesondere auch mit Elementen der Heimlichkeit und Täuschung versehene Ausgestaltung des Ermittlungsverfahrens, allerdings gebietet die in § 160 StPO normierte Sachaufklärungspflicht der Behörden keine Wahrheitserforschung um jeden Preis. Erforderlich ist immer, dass eine anzuwendende Ermittlungsmaßnahme im Einklang mit dem Rechtsstaatsprinzip steht, so dass jeder Eingriff in die Rechte Betroffener durch staatliches Handeln einer gesetzlichen
Grundlage bedarf, die das Ausmaß und die Voraussetzungen des Eingriffs klar und nachvollziehbar umreißt.[49]
Aufgrund der Ausgestaltung der Datenverarbeitung als ein Verbot mit Erlaubnisvorbehalt[50] könnten trotz der zunehmenden Verbreitung öffentlich zugänglicher Stimmproben insbesondere in den sozialen Medien selbst diese durch Ermittlungsbehörden nur bei Vorliegen einer gesetzlichen Grundlage verarbeitet werden. Sogar in den Fällen, in denen die zu reproduzierende Person in die Verarbeitung ihrer Stimmdaten einwilligen würde, was nach datenschutzrechtlichen Vorschriften[51] grundsätzlich möglich und auch nach der JI-RL (RL (EU) 2016/680) zulässig wäre, würde dies eine ausdrückliche Ermächtigung durch eine spezialgesetzliche Norm voraussetzen.[52]
Wenngleich die StPO eine Reihe verdeckter Ermittlungsmaßnahmen (z.B. §§ 100a ff., 110a ff. StPO) kennt und mit der Referenznorm des § 184b VI StGB sogar die Verbreitung KI-generierter Bilder in ihrem engen Anwendungsfeld für zulässig erachtet, ist der generelle Einsatz von Deepfake-Technologien bislang strafprozessual nicht ausdrücklich geregelt.[53] Dass strafprozessuale Eingriffsbefugnisse jedoch grundsätzlich auch auf Maßnahmen angewendet werden können, die nach dem Stand der Technik zum Zeitpunkt der jeweiligen Normierung noch nicht denkbar waren, ist möglich und eine von der Rechtsprechung dem Grunde nach gebilligte Praxis.[54] Vor diesem Hintergrund ist zu erwägen, den Einsatz von Stimm- und Sprachklonen auf bereits bestehende Vorschriften der StPO zu stützen.
Hier kämen – bei wohlwollender Auslegung – zunächst die Vorschriften der §§ 100a, 100c, 100f StPO in Betracht. Mag jedoch vielleicht die Gewinnung einer Stimmprobe dem Wortlaut zufolge noch von den vorgenannten Vorschriften zur Telekommunikations- und Wohnraumüberwachung umfasst sein, so dürfte jedoch die anschließende Verwendung der aufgenommenen Stimme zur Generierung eines Klons und dessen
anschließende Nutzung nicht nur weit über den Sinn und Zweck dieser Normen hinausgehen und damit dem Grundsatz der Normenklarheit und Tatbestandsbestimmtheit von strafprozessualen Eingriffsnormen widersprechen. Aufgrund der grundrechtlichen Sensibilität strafrechtlicher Ermittlungen betont das Bundesverfassungsgericht immer wieder, dass die gesetzliche Ermächtigung umso detaillierter und normativ klarer ausfallen muss, je intensiver der Eingriff ist.[55] Angesichts der Mehraktigkeit der Maßnahme, bestehend aus Aufzeichnung, Verarbeitung und Einsatz der Stimme, wird auch eine isolierte Betrachtung der einzelnen Teilschritte den Einsatz nicht legitimieren können, denn das Kombinieren bestehender Ermächtigungsgrundlagen zur Ermöglichung des Einsatzes neuer technischer Ermittlungsmethoden ist nach der Rechtsprechung des Bundesgerichtshofs[56] unzulässig.
Eine weitere denkbare Möglichkeit wäre es, den Einsatz eines Stimmklons aus dem Instrumentarium des verdeckten Ermittlers herzuleiten. Allerdings regeln die Vorschriften über den Einsatz verdeckter Ermittler (§§ 110a ff. StPO) keine derart weitreichenden technischen Manipulationen. Auch eine Analogie dürfte sich angesichts der Wesentlichkeit und Intensität des Eingriffs in die grundrechtlich geschützte Position des allgemeinen Persönlichkeitsrechts und des daraus entwickelten Rechts auf informationelle Selbstbestimmung sowie des Rechts am eigenen Bild und Wort verbieten.
Die Generalklauseln der §§ 161, 163 StPO sind aufgrund des besonders schutzwürdigen Vertrauens des Betroffenen in die Identität seines Gegenübers ebenfalls keine geeignete Grundlage für eine das Persönlichkeitsrecht derart tiefgreifend tangierende Maßnahme.[57] Selbiges gilt für die technische Möglichkeit, einen lediglich modulierten Stimmabdruck der zu reproduzierenden Person zu erzeugen, denn auch Imitationen können den Achtungsanspruch der betroffenen Person verletzen und ihr Selbstbestimmungsrecht über die Darstellung der eigenen Person untergraben.[58]
Während Technologieunternehmen ihre neuesten KI-Technologien präsentieren, die es nunmehr jedermann ermöglichen, verblüffend echt
wirkende synthetisch generierte Videoclips nebst Tonspur und sogar Live-Fakes zu erzeugen, ist de lege lata zu konstatieren, dass die Strafverfolgungsbehörden derzeit über keine Ermächtigungsgrundlage verfügen, die ihnen den Einsatz von Stimm- und Sprachklonen erlaubt. Die rechtspolitische Diskussion um den Einsatz von Deepfakes durch Strafverfolgungsbehörden muss jedoch dringend geführt werden. Denn technologischer Fortschritt und wirksame Strafverfolgung sind nur dann in grundrechtsschonende Konkordanz zu bringen, wenn jenseits einer anlasslosen Massenüberwachung den Strafverfolgungsbehörden der zielgerichtete und strafprozessual eingehegte Einsatz moderner und wirksamer Ermittlungsinstrumente ermöglicht wird. Der Gesetzgeber sollte sich auf dem mit § 184b VI StGB beschrittenen Weg weiter voran bewegen. Dabei steht er vor der Herausforderung, eine ausgewogene gesetzliche Ermächtigung zu schaffen, die angesichts des disruptiven Fortschritts der KI-Entwicklung den strafprozessualen Einsatz rechtssicher und grundrechtsschonend ermöglicht.
D. Deepfakes im Beweisrecht des Strafverfahrens
Eine besondere Herausforderung sind Deepfakes für das strafprozessuale Beweisrecht. Bislang gelten multimediale Beweise als „starke“ Beweismittel. Ist auf einem Überwachungsvideo eindeutig der Angeklagte als Täter zu sehen, scheint die Beweiswürdigung einfach.
Was bedeutet es aber für den Wert solcher Beweismittel, wenn durch die leichte Zugänglichkeit und Qualität von Deepfake-Technologien Medien trivial und mit hervorragender Qualität gefälscht werden können?
I. Überprüfungspflicht des Tatgerichts bei multimedialen Beweismitteln
Zunächst stellt sich durch die leichte Zugänglichkeit von Deepfake-Technologie die Frage, ob das Tatgericht in allen Fällen zur Überprüfung der Echtheit von multimedialen Beweismitteln verpflichtet ist.
Bislang war die Rspr. zurückhaltend mit der Verpflichtung der Tatgerichte zur Berücksichtigung möglicher alternativer Sachverhalte. So müssen Gerichte weder jeder denktheoretisch möglichen Sachverhalts-
variante nachgehen[59] noch zugunsten des Angeklagten für ihn günstige Annahmen machen, wenn das Beweisergebnis für diese Annahmen keine konkreten Anhaltspunkte gebracht hat.[60] Die Prinzipien der lückenlosen und erschöpfenden Beweiswürdigung aus § 261 StPO und die Darstellungsanforderungen aus § 267 StPO verlangen nach dem BGH vom Tatgericht nicht, dass es alle denkbaren Sachverhaltsvarianten würdigt, sondern nur alle „naheliegenden“ und „erheblichen“ Beweistatsachen ausdrücklich in seine Würdigung einbezieht.[61] Dabei ist der unbestimmte Rechtsbegriff des „Naheliegens“ weiterer Auslegung zugänglich. Bartel[62]schlägt in Anschluss an die Rspr.[63] vor, alle Sachverhaltsvarianten als „naheliegend“ zu betrachten, mit denen die Beweisanzeichen ebenso zu vereinbaren sind, wie mit der vom Gericht zunächst angenommenen Sachverhaltsvariante. Lässt das Tatgericht eine solche „naheliegende“ Möglichkeit außer Acht, liegt ein Verstoß gegen § 261 StPO vor.[64]
Daher muss das Tatgericht der Frage, ob ein Deepfake vorliegt, zumindest dann nachgehen, wenn sich aus der Beweisaufnahme Hinweise auf eine mögliche Fälschung ergeben. Das ist unabhängig von anderen Beweismitteln jedenfalls dann der Fall, wenn sich bereits aus der Betrachtung des Bildes, etc. Hinweise auf Fälschung ergeben. Da eine erste Sicht- oder Hörprüfung auf auffällige Merkmale (siehe A.) leicht zu bewerkstelligen ist und die Technologie zur Erstellung von Deepfakes leicht zugänglich und bedienbar ist, ist das Tatgericht zumindest zu einer intensiven Sichtkontrolle von Bildern und Videos sowie einer intensiven Hörkontrolle von Tonaufnahmen (z.B. auf künstlich wirkende Sprachmuster) verpflichtet.
Fraglich ist, wie mit einer Situation umzugehen ist, in denen der Angeklagte die Behauptung aufstellt, ein Bild, Video oder eine Tonaufnahme seien mittels Deepfake-Technologie gefälscht.[65] Hier geht der BGH davon aus, dass – auch unter Geltung des Zweifelsgrundsatzes – das Tatgericht dieser Behauptung weder einfach so folgen muss noch darf, wenn sich
aus dem Inhalt der übrigen Beweisaufnahme keine konkreten Anhaltspunkte für die behauptete Sachverhaltsvariante ergeben. Auch Einlassungen des Angeklagten müssen kritisch auf ihre Glaubhaftigkeit überprüft werden.[66] Eine entsprechende Pflicht zur Überprüfung des in Frage stehenden multimedialen Beweismittels ergibt sich aus einer entsprechenden Einlassung also nur, wenn diese bei kritischer Würdigung unter Berücksichtigung des sonstigen Beweismaterials nicht nur die (stets mögliche) abstrakt-theoretische Möglichkeit einer Fälschung beinhaltet, sondern die konkrete Möglichkeit einer Fälschung zumindest genauso gut zu den bisherigen Beweisergebnissen passt, wie die mögliche Echtheit des Bildes.
Eine bislang offene Frage – die auch in diesem kurzen Beitrag (noch) nicht endgültig beantwortet werden kann – ist, ob die Möglichkeit des Vorliegens eines Deepfakes allein durch die leichte Zugänglichkeit der Deepfake-Technologie stets „naheliegend“ und damit durch das Tatgericht zu überprüfen ist. Dies dürfte zu verneinen sein. Zwar ist es mittlerweile auch für Laien möglich, mit hinreichender Hardware-Ausstattung und ausreichendem Bild-, Video- und/oder Tonmaterial täuschend echte Deepfakes von Aussehen und Stimme einer Person zu erstellen. Dementsprechend ist stets von der „Möglichkeit“ einer Fälschung auszugehen. Allerdings genügt diese generelle Möglichkeit nach der o.g. Rspr. gerade nicht, um die Tatgerichte stets zu einer vollumfänglichen Prüfung des Materials auf ihre mögliche Deepfake-Eigenschaft hin zu verpflichten. Es müssen weitere Beweisanzeichen dazukommen, welche eine Fälschung nahelegen. Praxisrelevante Beispiele dürften hier sein: Belastungsinteresse von Personen, die Zugang zum Beweismaterial hatten, Widersprüche des Bild- oder Tonmaterials zu anderen Beweismitteln (z.B. Zeugenaussagen), Herrühren des Bildes aus besonders fälschungsanfälligen Quellen (z.B. Soziale Medien), Eigenschaften der betroffenen Person, welche die Erstellung von Deepfakes wahrscheinlich(er) machen (z.B. Status als Person des öffentlichen Lebens oder große Verfügbarkeit von Bild- und Tonmaterial im öffentlich zugänglichen Internet). Angesichts des einfachen Zugangs zu Deepfake-Technologien muss das Tatgericht bei Vorliegen solcher Anhaltspunkte allerdings grds. davon ausgehen, dass eine Fälschung zumindest technisch möglich war und diese Möglichkeit dann als naheliegend behandeln.
Ist nach diesen Maßstäben eine Überprüfung des fraglichen multimedialen Beweismittels für das Tatgericht verpflichtend, stellt sich die Frage, wie eine solche Überprüfung nach dem Beweisrecht der StPO vorzunehmen ist.
II. Konstellation 1: Technisch mögliche Deepfake-Erkennung
Wenn es sich um Deepfakes handelt, bei denen die Erkennung als Fälschung aus technischer Sicht möglich ist, gibt das bisherige Beweisrecht der StPO bereits die Lösung des Falles vor.
Zwar wird die Beweiswürdigung grundsätzlich von § 261 StPO allein dem Tatgericht überantwortet. Allerdings schränken sowohl die StPO selbst als auch die ständige Rspr. des BGH zur sog. objektiv tragfähigen Tatsachengrundlage die freie richterliche Beweiswürdigung erheblich ein. So ist das Tatgericht gesetzlich verpflichtet, den Sachverhalt so umfassend wie möglich aufzuklären (§ 244 II StPO). Zur Sachverhaltsaufklärungspflicht gehört auch die Pflicht, Beweismittel, welche die Schuld oder Unschuld des Angeklagten oder strafzumessungsrelevante Gesichtspunkte nachweisen sollen, auf ihre Zuverlässigkeit hin zu überprüfen.[67] Denn ohne Informationen über die Zuverlässigkeit, kann der Wert des Beweismittels nicht geklärt und damit der Sachverhalt nicht optimal aufgeklärt werden.[68] Bei digitalen Beweismitteln gehört zu dieser Aufklärung insbesondere die Feststellung, ob die Authentizität (Ursprungsechtheit) und die Integrität (Unverändertheit) des Beweismittels gewährleistet sind.[69] Die Frage, ob ein multimediales Beweismittel echt oder gefälscht ist, betrifft beide dieser Eigenschaften. Ist ein Bild, Video oder eine Tonaufnahme vollständig künstlich erstellt, so stammt das Beweismittel nicht aus der angegebenen Quelle. Wurde dagegen eine tatsächlich bestehende Aufnahme, Bild oder Video nachträglich mit Deepfake-Technologie verändert, so fehlt es an der Integrität des Beweismittels. Dementsprechend verpflichtet die Aufklärungspflicht nach § 244 II StPO das Tatgericht dazu, die Frage der Echtheit eines multimedialen Beweismittels aufzuklären.
Auf Ebene der Beweiswürdigung ist eine erschöpfende und lückenlose Beweiswürdigung gefordert.[70] Hierzu gehört auch, dass das Tatgericht zur Zuverlässigkeit der verwerteten Beweismittel Stellung nehmen muss, was auch die Frage der Authentizität und Integrität umfasst.[71] Das Tatgericht muss sich daher in seiner Beweiswürdigung mit der Frage auseinandersetzen, ob ein Bild, Video oder eine Tonaufnahme echt oder gefälscht ist.
Zur Aufklärung dieser Frage wird das Tatgericht mangels eigener Sachkunde in der Regel Multimedia-Forensiker als Sachverständige mit der Prüfung des Bildes, Videos oder der Tonaufnahme beauftragen müssen. In bestimmten Fällen kommen auch andere Beweismittel zum Nachweis der Echtheit eines multimedialen Beweismittels in Betracht. So kann die Quelle eines Bildes z.B. durch die Befragung von Zeugen zur Herkunft des Bildes aufgeklärt werden. Das setzt allerdings voraus, dass der Zeuge glaubwürdig ist (also z.B. kein Belastungsinteresse hat) und die Zeugenaussage glaubhaft und ausreichend belegt, dass die Authentizität und Integrität des multimedialen Beweismittels gewahrt sind. In vielen Fällen – v.a. bei Bildern aus dem Internet, etwa aus sozialen Medien – wird diese Methode jedoch mangels verfügbarer Zeugen ausscheiden.[72]
Da die bisherigen technischen Methoden zur Enttarnung von Deepfakes fehleranfällig sind und nur mit einer gewissen Wahrscheinlichkeit die Echtheit oder Unechtheit eines Mediums feststellen können,[73] stellt sich schließlich die Frage, wie Gerichte mit einer entsprechenden Aussage eines Sachverständigen umgehen müssen. Da die Methoden der Deepfake-Erkennung auf wissenschaftlichen Methoden beruhen, können hier die Grundsätze zum Umgang mit sog. Erfahrungssätzen angewendet werden.[74] Aufgrund der Tatsache, dass die Deepfake-Erkennung keine vollständige Sicherheit bietet, scheidet jedenfalls eine Bindung an das Ergebnis als „gesicherte wissenschaftliche Erkenntnis“ aus.[75] In Betracht
kommt dagegen die Einordnung solcher Methoden als Erfahrungssatz mit aus wissenschaftlichen Methoden basierender Richtigkeitswahrscheinlichkeit. Dies setzt voraus, dass die konkrete Richtigkeitswahrscheinlichkeit durch wissenschaftliche Studien hinreichend nachgewiesen ist. In diesem Fall wäre das Tatgericht zwar nicht an das Ergebnis, aber an die Richtigkeitswahrscheinlichkeit der Deepfake-Erkennung gebunden.[76] Kann die Richtigkeitswahrscheinlichkeit einer Erkennungsmethode (noch) nicht mit wissenschaftlichen Methoden angegeben werden (z.B. nur aus Erfahrungswerten im Einsatz oder nicht unabhängig geprüften Herstellerangaben), so entspricht die Deepfake-Erkennungsmethode nur einem „einfachen“ Erfahrungssatz mit Indizwert, aber keiner Bindungswirkung.[77]
III. Konstellation 2: Unaufklärbarkeit der Echtheit
Deutlich schwieriger zu beurteilen ist der Fall, wenn die Echtheit eines multimedialen Beweismittels weder durch die Anwendung von Deepfake-Erkennungstechnologie noch durch andere Beweismittel aufklärbar ist. Hat das Tatgericht alle Möglichkeiten zur Aufklärung ausgeschöpft und sich in der Beweiswürdigung mit der Frage einer Fälschung auseinandergesetzt, liegen jedenfalls keine Verstöße gegen die Aufklärungspflicht und zur Pflicht der lückenlosen Beweiswürdigung vor. Fraglich ist dann, wie in Fällen zu verfahren ist, in denen a) das Tatgericht nach den o.g. Maßstäben verpflichtet ist, der naheliegenden Möglichkeit des Vorliegens eines Deepfakes nachzugehen und b) es trotz Einsatzes von Sachverständigen und einer umfassenden sonstigen Beweiswürdigung nicht möglich ist, die Echtheit oder Unechtheit mit einer hinreichenden Wahrscheinlichkeit festzustellen. Hier scheint eine Parallele zur Rspr. des BGH zu sonstigen Beweismitteln, bei denen keine Auskunft über deren Zuverlässigkeit möglich ist, angezeigt: solche Beweismittel sind ungeeignet und dürfen nicht verwertet werden.[78]
E. Deepfakes als kriminalpolitische Herausforderung
Deepfakes stellen die Justiz, die Kriminalpolitik und die Rechtswissenschaft vor neue Herausforderungen. Einige dieser neuen Problemfelder – wie der tatgerichtliche Umgang mit (möglichen) Deepfakes in der Beweiswürdigung – können bereits jetzt durch die konsequente Anwendung bestehender Rechtsinstitute gelöst werden. Andere – wie etwa die angemessene strafrechtliche Erfassung persönlichkeitsrechtsverletzender Deepfakes und der Einsatz von Deepfakes für verdeckte Ermittlungen – erfordern ein Tätigwerden des Gesetzgebers, um bestehende Lücken zu schließen.
Der Beitrag wurde gefördert durch das Bayerische Forschungsinstitut für Digitale Transformation (bidt), einem Institut der Bayerischen Akademie der Wissenschaften unter dem Förderkennzeichen KON-024-008 (Projekt: For the greater Good? Deepfakes in der Strafverfolgung).
Prof. Dr. Christian Rückert ist Inhaber des Lehrstuhls für Strafrecht, Strafprozessrecht und IT-Strafrecht an der Universität Bayreuth. Kontakt: lehrstuhl.str2@uni-bayreuth.de.
LOStA Markus Hartmann ist Leitender Oberstaatsanwalt bei der Generalstaatsanwaltschaft Köln und Leiter der ZAC NRW.
OStA.in Miriam Anna Margerie ist Oberstaatsanwältin bei der ZAC NRW bei der Generalstaatsanwaltschaft Köln. Kontakt: miriam.margerie@gsta-koeln.nrw.de.
Lorenz Meinen ist Wissenschaftlicher Mitarbeiter am Lehrstuhl von Christian Rückert.
Stefanie Wiedemann ist Wissenschaftliche Mitarbeiterin am Lehrstuhl für Wirtschaftsinformatik und humanzentrische Künstliche Intelligenz an der Universität Bayreuth.
[1] Siehe aber: Margerie/Hartmann EuDIR 2025, 73 ff.
[2]Zum Ganzen Döbel et al., Maschinelles Lernen – Eine Analyse zu Kompetenzen, Forschung und Anwendung, 2018, S. 11 f.
[3] Mirsky/Lee, The Creation and Detection of Deepfakes: A Survey, 2021, S. 3 f.
[4] Mirsky/Lee, The Creation and Detection of Deepfakes: A Survey, 2021, S. 4.
[5] Khanjani et al., Audio Deepfakes: A Survey, 2022, S. 8.
[6] Khanjani et al., Audio Deepfakes: A Survey, 2022, S. 12.
[7] Mirsky/Lee, The Creation and Detection of Deepfakes: A Survey, 2021, S. 27 ff.
[8] Hierbei geben sich Täter als ein Vorgesetzter des Täuschungsadressaten aus und veranlassen diesen zu Zahlungen an ein bestimmtes Konto.
[9] Hier werden intime Aufnahmen als Nötigungsmittel genutzt, um Erpressungstaten zu begehen.
[10] Siehe auch Valerius CyberStR 2025, 1, 3.
[11] Vgl. Valerius CyberStR 2025, 1, 3 m.w.N.
[12] Vgl. Valerius CyberStR 2025, 1, 3 m.w.N.
[13] BR-Drs. 222/24, S. 8.
[14] BR-Drs. 222/24; BR-Drs. 272/25.
[15] BGH NJW 1994, 2614, 2615.
[16] BVerfG NJW 1983, 1415, 1415.
[17] Valerius, in BeckOK StGB, 66. Edition 1.8.2025, § 186 Rn. 6.
[18] Im rein fotografischen Kontext so auch: BVerfG NJW 2005, 3271, 3273.
[19] Vgl. Fischer/Anstötz, in Fischer StGB, 72. Aufl. 2025, § 186 Rn. 4; Sinn, in Satzger/Schluckebier/Werner Strafgesetzbuch, 6. Aufl. 2024, § 186 Rn. 9.
[20] BGH NJW 1989, 3028, 3028.
[21] Pawelec/Bieß, Deepfakes Technikfolgen und Regulierungsfragen aus ethischer und sozialwissenschaftlicher Perspektive, 1. Aufl. 2021, S. 53 f.
[22] Bspw. das Video von Olaf Scholz, in dem dieser vermeintlich ein Verbot der AfD fordert: Schmalzried, Scholz-Deepfake, abrufbar unter: https://www.br.de/nachrichten/netzwelt/scholz-deepfake-sind-ki-faelschungen-verboten,TwzZ6nE, zuletzt abgerufen am 13.10.2025.
[23] Vgl. Hilgendorf/Kusche/Valerius, Computer- und Internetstrafrecht, 3. Aufl. 2023, § 3 Rn. 172.
[24] Vgl. Meinicke DSRITB 2020, 981, 990.
[25] Hilgendorf, in Leipziger Kommentar StGB, Bd. 10, 13. Aufl. 2023, § 193 Rn. 6.
[26] BVerfG NJW 2020, 2622, Rn. 29.
[27] Vgl. allgemein zum APR: BGH NJW 2009, 3576, Rn. 19; BVerfG NJW 2008, 39, Rn. 90.
[28] Denkbar ist hier im Wesentlichen die synthetische Nachstellung eines tatsächlich vorgefallenen Ereignisses. Dabei muss man sich fragen, wie realitätsgetreu die Nachstellung ausfallen muss.
[29] LK/StGB-Valerius, § 201a Rn. 11.
[30] Fischer/StGB-Fischer/Anstötz, § 201a Rn. 4; LK/StGB-Valerius, § 201a Rn. 25.
[31] LK/StGB-Valerius, § 201a Rn. 25; Graf, in Münchener Kommentar StGB, Bd. 4, 5. Aufl. 2025, § 201a Rn. 26.
[32] So auch: Lantwin MMR 2020, 78, 79; Valerius CyberStR 2025, 1, 2.
[33] Statt vieler: Bosch, in SSW StGB, § 201a Rn. 18; Lantwin MMR 2020, 78, 79; Meinicke DSRITB 2020, 981, 987.
[34] So wohl Lantwin MMR 2020, 78, 79; ähnliche Argumentation bei: Valerius CyberStR 2025, 1, 2.
[35] LK/StGB-Valerius, § 201a Rn. 26 und Valerius CyberStR 2025, 1, 2 f.
[36] Bspw.: Kumkar/Rapp ZfDR 2022, 199, 209; Meinicke DSRITB 2020, 981, 987.
[37]LK/StGB-Valerius, § 201a Rn. 61; Eisele, in Tübinger Kommentar StGB, 31. Aufl. 2025, § 201a Rn. 41; ohne Begründung auch: BT-Drs. 18/2601, S. 36.
[38] Cornelius NJW 2017, 1893, 1894; dem folgend: LK/StGB-Valerius, § 201a Rn. 61.
[39] Völzmann ZUM 2025, 1, 5.
[40] Der Beitrag unterstellt die weitere Anwendbarkeit des KUG nach Inkrafttreten der DSGVO. Sehr ausführlich hierzu: Bienemann, Reformbedarf des Kunsturhebergesetzes im digitalen Zeitalter, 2021, S. 27 ff.
[41] Kumkar/Rapp ZfDR 2022, 199, 204 f.
[42] Specht-Riemenschneider, in Dreier/Schulze Urheberrechtsgesetz, 8. Aufl. 2025, § 22 KUG Rn. 1.
[43]Dreier/Schulze/Urheberrechtsgesetz-Specht-Riemenschneider, § 22 KUG Rn. 3; a.A.: Hartmann K&R 2020, 350, 352 f.
[44] Kumkar/Rapp ZfDR 2022, 199, 209; Lantwin MMR 2020, 78, 79; Valerius CyberStR 2025, 1, 3.
[45] BGH GRUR 2006, 255 Rn. 16 f.
[46] Dazu in Tiefe: Woerlein MMR-Aktuell 2024, 01624; Vassilaki CR 2024, 701 ff.; ausführliche Kritik auch bei Valerius CyberStR 2025, 1, 4 ff.
[47] Zu vgl. BT-Drs. 19/16543, S. 11 referenziert ausdrücklich mittels KI generierte Bilder und stellt in bemerkenswerter Einfachheit fest, dass die für das KI-Training verwandten Bilder kein Bestandteil der dann vollständig künstlich erzeugten Aufnahmen seien.
[48] Ausführlich dazu: Rostalski/Weiss ZfDR 2021, 329, 335 ff.
[49] Jarass, in Jarass/Pieroth GG, 18. Aufl. 2024, Art. 20 Rn. 77 ff.
[50] Schröder, Datenschutzrecht für die Praxis, 6. Aufl. 2025, S. 17.
[51] Art. 6 DSGVO, § 51 I BDSG.
[52] Wolff/Stemmer, in BeckOK Datenschutzrecht, 53. Edition 1.5.2025, § 51 BDSG Rn. 1; Rückert, Digitale Daten als Beweismittel im Strafverfahren, 2023, S. 579.
[53] Ausführlich dazu: Margerie/Hartmann EuDIR 2025, 73 ff.
[54] Vgl. etwa BVerfGE 124, 43, 60 f. zur Beschlagnahme von Daten nach § 94 StPO, obwohl die Beschlagnahmevorschriften ursprünglich nur auf körperliche Gegenstände zugeschnitten waren.
[55] BVerfG NJW 1993, 317.
[56] BGH MMR 2007, 237, 239.
[57] BVerfGE 120, 274, 310.
[58] BGH NJW 2000, 2195; Lennartz NJW 2023, 3543, 3544.
[59] BGH NStZ-RR 2005, 147, 148.
[60] BGH NStZ 2004, 35, Rn. 7.
[61] BGH BeckRS 2022, 29364.
[62] Bartel, in Münchener Kommentar StPO, Bd. 2, 2. Aufl. 2024, § 261 Rn. 104.
[63] BGH NJW 1974, 2295.
[64] Vgl. BGH NJW 1974, 2295.
[65] Siehe zu einem Fall aus den USA: Zimmermann, LTO v. 29.4.2023, abrufbar unter: https://www.lto.de/recht/hintergruende/h/ki-als-ausrede-elon-musk-kuenstliche-intelligenz-midjourney-huang, zuletzt abgerufen am 13.10.2025.
[66] Zum Ganzen: BGH NStZ 2023, 757.
[67] Hierzu bereits Rückert GA 2023, 361, 368.
[68] Hierzu bereits Rückert GA 2023, 361, 368.
[69] Siehe Rückert, Digitale Daten als Beweismittel im Strafverfahren, 2023, S. 687 f.
[70] Vgl. zu diesem Erfordernis: BGH NJW 1980, 2423; BGH StV 1997, 8; BGH NJW 2019, 945, 945.
[71] Rückert, Digitale Daten als Beweismittel im Strafverfahren, 2023, S. 670 f.
[72] Vgl. hierzu allgemein (nicht spezifisch für Deepfakes): Mysegades, Software als Beweiswerkzeug, 2022, S. 134 f.
[73] Vgl. Abbasi et al. Appl. Sci. 2025, 15 (3), 1225, https://doi.org/10.3390/app15031225.
[74] Vgl. hierzu BGHSt 29, 18, 21; 10, 208, 211; BGHSt 21, 157; BGHSt 31, 86, 89 f.; BGH NStZ 2002, 656, 658; Eschelbach, in BeckOK StPO, 56. Edition 1.7.2025, § 261 Rn. 39 ff.; MüKo/StPO-Bartel, § 261 Rn. 94 ff.; Eisenberg, Beweisrecht der StPO, 10. Aufl. 2017, Rn. 103; jeweils m.w.N.
[75] Vgl. BGHSt 21, 157, 159; 29, 18, 21; 37, 89, 91 f.; Schluckebier, in Satzger/Schluckebier/Werner Strafprozessordnung, 6. Auflage 2025, § 261 Rn. 20; MüKo/StPO-Bartel, § 261 Rn. 95 f.;
Stuckenberg, in KMR StPO, 135. Aktualisierung 2025, § 261 Rn. 34; Sander, in Löwe/Rosenberg StPO, Bd. 7, 27. Auflage 2021, § 261 Rn. 68; jeweils m.w.N.
[76] Zu dieser Fallgruppe siehe: BGH NJW 1973, 1411; MüKo/StPO-Bartel, § 261 Rn. 97; BeckOK/StPO-Eschelbach, § 261 Rn. 41; Eisenberg, Beweisrecht der StPO, Rn. 103; siehe auch BGHSt 37, 157 und BGHSt 38, 320.
[77] Vgl. BGHR StPO, § 261 Erfahrungssatz 2; BGH NStZ-RR 1998, 267; BeckOK/StPO-Eschelbach, § 261 Rn. 41; KMR/StPO-Stuckenberg, § 261 Rn. 36.
[78] Vgl. BGHSt 44, 308; BGH NStZ 2011, 474.