Missbrauch mit KI-generierten Nacktbildern steigt

Ein wachsendes Problem: Missbrauch durch „Nudify“-Apps

Der Nudify Apps Missbrauch nimmt zu. In der digitalen Welt, in der KI-Technologie großartige Möglichkeiten bietet, wird sie leider auch für missbräuchliche Zwecke genutzt. Ein besorgniserregendes Beispiel sind sogenannte „Nudify“-Apps, die realistische Nacktbilder von Personen ohne deren Zustimmung erstellen.

Steigende Nutzung und aggressive Werbung

Seit der Einführung der ersten KI-basierten „Nudify“-App im Jahr 2019 hat sich die Technologie rasant entwickelt. Heutige Apps produzieren täuschend echte Bilder und Videos, was zu einer steigenden Nachfrage und aggressiver Werbung führt.

Laut Graphika verzeichneten NCII-Anbieter (synthetic non-consensual intimate imagery) im September allein 24 Millionen Nutzer.

Frauen besonders betroffen

Deepfake Pornografie betrifft überwiegend Frauen. Eine Studie aus 2020 ergab, dass 37,7% der befragten Frauen in Australien, Neuseeland und Großbritannien Opfer bildbasierter sexueller Gewalt wurden. Sensity AI schätzte 2021, dass 90-95% aller Deepfake-Videos nicht-einvernehmliche Pornos sind, wobei 90% Frauen zeigen.

Rechtliche Schritte für Betroffene

Zivilrechtliche Ansprüche

Betroffene können zivilrechtliche Ansprüche geltend machen, da Deepfakes eine schwere Verletzung der persönlichen Ehre und der Intimsphäre darstellen. Möglich sind einstweilige Verfügungen, Unterlassungsklagen und Schadensersatzansprüche.

Strafrechtliche Verfolgung

Strafrechtlich können Täter wegen Beleidigung, Verleumdung oder übler Nachrede belangt werden, mit Strafen bis zu 5 Jahren. Nach § 42 des Bundesdatenschutzgesetzes drohen bei schädigender Datenverarbeitung Geld- oder Haftstrafen bis zu 2 Jahren.

Lücken im Gesetz

Aktuell gibt es keine explizite strafrechtliche Regelung für Deepfake Pornografie. § 201a StGB verbietet zwar das Zugänglichmachen von Bildaufnahmen, die das Ansehen einer Person gefährden, aber ob dies auf Deepfakes zutrifft, ist unklar.

Maßnahmen zur Eindämmung der Verbreitung

Rolle der Sozialen Netzwerke

Plattformen wie Meta oder Reddit sind verpflichtet, rechtsverletzende Inhalte zu prüfen und zu löschen. Betroffene sollten die Täter anzeigen und die Datenschutzbehörde kontaktieren. Allerdings ist es nahezu unmöglich, bereits verbreitete Inhalte vollständig zu löschen.

Forderungen von Verbänden und Organisationen

Verbot und Aufklärung

Verbände wie der Deutsche Juristinnenbund und Organisationen wie HateAid fordern ein generelles Verbot der Verarbeitung und Weiterverbreitung von neutralem Bildmaterial zu Deepfakes ohne Zustimmung. HateAid setzt sich zudem für staatlich geförderte Aufklärungs- und Beratungsangebote ein.

Digitales Gewaltschutzgesetz

Die Bundesregierung arbeitet an einem Digitalen Gewaltschutzgesetz, das Betroffenen bessere Möglichkeiten gegen digitale Gewalt bieten soll. Das Eckpunktepapier sieht erweiterte Auskunftsansprüche und eine richterlich angeordnete Accountsperre vor.

Schlussfolgerung

Der Missbrauch mit KI-generierten Nacktbildern stellt eine ernsthafte Bedrohung dar, insbesondere für Frauen. Während rechtliche Schritte möglich sind, bleibt die vollständige Löschung der Inhalte eine Herausforderung. Es bedarf klarer gesetzlicher Regelungen und stärkerer Maßnahmen seitens der Plattformbetreiber, um dieses wachsende Problem effektiv anzugehen.

Diese Seite teilen: