Missbrauch mit KI-generierten Nacktbildern steigt
Ein wachsendes Problem: Missbrauch durch „Nudify“-Apps
Der Nudify Apps Missbrauch nimmt zu. In der digitalen Welt, in der KI-Technologie großartige Möglichkeiten bietet, wird sie leider auch für missbräuchliche Zwecke genutzt. Ein besorgniserregendes Beispiel sind sogenannte „Nudify“-Apps, die realistische Nacktbilder von Personen ohne deren Zustimmung erstellen.
Steigende Nutzung und aggressive Werbung
Seit der Einführung der ersten KI-basierten „Nudify“-App im Jahr 2019 hat sich die Technologie rasant entwickelt. Heutige Apps produzieren täuschend echte Bilder und Videos, was zu einer steigenden Nachfrage und aggressiver Werbung führt.
Laut Graphika verzeichneten NCII-Anbieter (synthetic non-consensual intimate imagery) im September allein 24 Millionen Nutzer.
Frauen besonders betroffen
Deepfake Pornografie betrifft überwiegend Frauen. Eine Studie aus 2020 ergab, dass 37,7% der befragten Frauen in Australien, Neuseeland und Großbritannien Opfer bildbasierter sexueller Gewalt wurden. Sensity AI schätzte 2021, dass 90-95% aller Deepfake-Videos nicht-einvernehmliche Pornos sind, wobei 90% Frauen zeigen.
Rechtliche Schritte für Betroffene
Zivilrechtliche Ansprüche
Betroffene können zivilrechtliche Ansprüche geltend machen, da Deepfakes eine schwere Verletzung der persönlichen Ehre und der Intimsphäre darstellen. Möglich sind einstweilige Verfügungen, Unterlassungsklagen und Schadensersatzansprüche.
Strafrechtliche Verfolgung
Strafrechtlich können Täter wegen Beleidigung, Verleumdung oder übler Nachrede belangt werden, mit Strafen bis zu 5 Jahren. Nach § 42 des Bundesdatenschutzgesetzes drohen bei schädigender Datenverarbeitung Geld- oder Haftstrafen bis zu 2 Jahren.
Lücken im Gesetz
Aktuell gibt es keine explizite strafrechtliche Regelung für Deepfake Pornografie. § 201a StGB verbietet zwar das Zugänglichmachen von Bildaufnahmen, die das Ansehen einer Person gefährden, aber ob dies auf Deepfakes zutrifft, ist unklar.
Maßnahmen zur Eindämmung der Verbreitung
Rolle der Sozialen Netzwerke
Plattformen wie Meta oder Reddit sind verpflichtet, rechtsverletzende Inhalte zu prüfen und zu löschen. Betroffene sollten die Täter anzeigen und die Datenschutzbehörde kontaktieren. Allerdings ist es nahezu unmöglich, bereits verbreitete Inhalte vollständig zu löschen.
Forderungen von Verbänden und Organisationen
Verbot und Aufklärung
Verbände wie der Deutsche Juristinnenbund und Organisationen wie HateAid fordern ein generelles Verbot der Verarbeitung und Weiterverbreitung von neutralem Bildmaterial zu Deepfakes ohne Zustimmung. HateAid setzt sich zudem für staatlich geförderte Aufklärungs- und Beratungsangebote ein.
Digitales Gewaltschutzgesetz
Die Bundesregierung arbeitet an einem Digitalen Gewaltschutzgesetz, das Betroffenen bessere Möglichkeiten gegen digitale Gewalt bieten soll. Das Eckpunktepapier sieht erweiterte Auskunftsansprüche und eine richterlich angeordnete Accountsperre vor.
Schlussfolgerung
Der Missbrauch mit KI-generierten Nacktbildern stellt eine ernsthafte Bedrohung dar, insbesondere für Frauen. Während rechtliche Schritte möglich sind, bleibt die vollständige Löschung der Inhalte eine Herausforderung. Es bedarf klarer gesetzlicher Regelungen und stärkerer Maßnahmen seitens der Plattformbetreiber, um dieses wachsende Problem effektiv anzugehen.