NRW-Innenminister Herbert Reul (CDU) will im Kampf gegen Kindesmissbrauch und sexualisierte Gewalt die Strafverfolgung von sogenannten Deepfakes erleichtern. Dabei handelt es sich um Videos und Fotos, die mit Hilfe Künstlicher Intelligenz (KI) meist auf Basis vorhandener Dateien neu erschaffen wurden. “Wir müssen in Deutschland schon jetzt klare Grenzen ziehen, um den Ermittlern das nötige juristische Werkzeug zu geben”, sagte Reul der “Westdeutschen Allgemeinen Zeitung”.
NRW wird bei der am Mittwoch beginnenden Innenministerkonferenz (IMK) einen entsprechenden Beschlussvorschlag machen. Darin wird die Bundesregierung aufgefordert, die bereits laufenden europäischen Regulierungsbemühungen mit eigenen gesetzgeberischen Initiativen zu begleiten, “um die Herstellung und Verbreitung sexualisierter Deepfakes effektiv zu bekämpfen”. Man sei der Auffassung, dass es sich hierbei um “eine neue und in ihrer Bedeutung zunehmende Form sexualisierter Gewalt handelt”, heißt es in dem Beschlussvorschlag, über den die Zeitung berichtet.
Leistungsstarke KI-Software ist auf dem Vormarsch und immer besser in der Lage, täuschend echte Fotos und Videos zu kreieren. Auf europäischer Ebene wird bereits an Kennzeichnungspflichten und der Anwendung von Grundrechten auf den Umgang mit täuschend echten Inhalten gearbeitet. Für den Umgang mit Missbrauchsdarstellungen ergibt sich jedoch aus Sicht der NRW-Ermittler gesonderter Handlungsbedarf.
“Die schöne neue KI-Welt zeigt immer mehr ihre hässliche Seite”, sagte Reul. “Deepfakes sind nichts Neues, können auch hier und da lustig sein. Aber wenn es um Darstellung von sexualisierter Gewalt in jeglicher Form geht, hört der Spaß definitiv auf.”
Im EU-Raum waren zuletzt bereits Missbrauchsdarstellungen von Jugendlichen aufgetaucht, deren Instagram-Fotos mit anderweitig im Netz verfügbaren Nacktsequenzen täuschend echt montiert worden waren. Obwohl auch das für die Opfer traumatisierend wirken kann, ergibt sich bei solchen KI-generierten Bildern von imaginierten Missbrauchstaten offenbar eine rechtliche Grauzone. Experten warnen schon länger, dass die Künstliche Intelligenz die Verbreitung von Missbrauchsdarstellung noch einmal deutlich beschleunigen und Gewalttaten durch Fotocollagen verschleiern werde.
Obwohl die Zahl der angezeigten Deepfakes noch sehr gering ist, warnt Reul vor einem wachsenden Problem: “Sexualisierte Gewalt ist abscheulich und strafbar – egal ob künstlich erstellt oder nicht.” Die Strafverfolgungsbehörden benötigten “Ressourcenausstattung, Fortbildungen und Sensibilisierung”, die Opfer wiederum spezialisierter Beratungsstellen und -netzwerke, so der NRW-Beschlussvorschlag.
dts Nachrichtenagentur