Sexualisierte Deepfakes:Was Opfer KI-manipulierter pornografischer Bilder tun können
von Charlotte Greipl
Immer mehr Frauen finden mit KI erzeugte sexualisierte Bilder von sich im Netz. Was sie dagegen unternehmen können und wie die Politik Lücken im Strafrecht schließen will.
Lebensechte KI‑Fälschungen lassen sich heute leicht erstellen - auch im pornografischen Kontext: Betroffene finden sich plötzlich in Porno-Videos im Netz wieder. Eine junge Frau erzählt ihre Geschichte.
03.02.2026 | 2:54 minEs ist einfach, es ist meist kostenlos und der Schaden ist verheerend: Immer mehr Frauen finden sich in sogenannten Deepfake-Pornos wieder. Ihr Kopf wird aus Fotos, die sie auf Social Media geteilt haben, ausgeschnitten und auf die Gesichter von Pornodarstellerinnen montiert. Oder es werden mittels künstlicher Intelligenz (KI) ganz neue Videos und Fotos erstellt, die die Frauen in demütigenden, sexualisierten Posen zeigen.
Für Betroffene sind die Inhalte eine enorme Belastung: Häufig entdecken sie die Bilder nur zufällig, wenn sie ihren Namen googeln oder Kollegen oder Angehörige sie darauf hinweisen. Selbst wenn die Plattformen die Videos löschen, sind sie in der Zwischenzeit häufig schon tausendfach heruntergeladen.
Durch künstliche Intelligenz werden aus harmlosen Fotos pornografische Inhalte entwickelt. Gegen die sogenannten "Deepfake-Pornos" gibt es noch keine direkte gesetzliche Handhabe.
22.11.2025 | 1:38 minGrok erzeugte millionenfach Nacktbilder
Dass Handlungsbedarf besteht, haben die letzten Wochen deutlich gemacht. Auf der Plattform X wurden massenhaft Nackt- oder Bikinibilder von Frauen verbreitet. Selbst Kinder waren tausendfach in sexualisierten Posen abgebildet. Grok hat die Funktion mittlerweile eingeschränkt.
Häufig macht sich derjenige, der KI-generierte pornografische Inhalte erstellt und verbreitet, nicht strafbar. Die Deepfakes können unter Umständen zwar als Beleidigung oder Verleumdung verfolgt werden. Das setzt allerdings voraus, dass die Inhalte ehrverletzend sind.
Auch eine Verletzung des Kunsturhebergesetzes, also des Rechts am eigenen Bild, kommt in Betracht. Zugeschnitten auf pornografische Deepfakes sind diese Straftatbestände aber nicht und werden der Dimension der massenhaft online verbreiteten Inhalte nicht gerecht. In Deutschland gibt es kaum Ermittlungen in diesem Bereich.
Anders ist das bei kinderpornografischen Inhalten: deren Verbreitung, Erwerb und Besitz sind schon jetzt strafbar, unabhängig davon, ob die Bilder KI-generiert sind oder nicht.
KI ermöglicht Fälschungen. So entstehen aus harmlosen Fotos täuschend echte Nacktbilder oder Porno‑Videos. Was Betroffene tun können, erklärt Charlotte Greipl von der ZDF-Fachredaktion Recht und Justiz.
03.02.2026 | 4:42 minJustizministerin will Strafbarkeitslücken schließen
Eine direkte gesetzliche Handhabe fehlt bisher. Bundesjustizministerin Stefanie Hubig (SPD) hat sich dafür ausgesprochen, das zu ändern. Mit einem "Digitalen Gewaltschutzgesetz" will die Ministerin Betroffene besser vor pornografischen Deepfakes schützen.
Bundesjustizministerin Hubig will das Erstellen und Verbreiten sexualisierter KI-Bilder einschränken. Großbritannien ist wegen sexualisierter KI-Bilder bereits gegen X vorgegangen.
14.01.2026 | 1:34 minEs ist nicht der erste Vorstoß: Der Bundesrat hatte bereits 2024 einen Gesetzentwurf erarbeitet, der derzeit im Bundestag liegt. Danach würde sich derjenige strafbar machen, der "das Persönlichkeitsrecht einer anderen Person verletzt", indem er KI-generierte Fake-Aufnahmen eines Menschen "einer dritten Person zugänglich macht".
An dem Vorschlag gibt es Kritik von verschiedenen Seiten: Anwaltsverbände halten den Entwurf für zu schwammig und sehen darin einen Eingriff in die Meinungsfreiheit. Frauenrechtsorganisationen hingegen monieren, dass nur die Verbreitung, nicht aber die Erstellung von pornografischen Inhalten unter Strafe gestellt würde.
In Italien macht sich strafbar, wer unrechtmäßig mittels KI erstellte oder bearbeitete Inhalte verbreitet, insbesondere wenn dadurch die Rechte einer Person verletzt werden. Seit wenigen Tagen sind pornografische Deepfakes in Großbritannien strafbar.
Nicht zuletzt macht auch die EU Druck: Bis 2027 müssen alle Mitgliedstaaten die Verbreitung solcher Deepfake-Bilder unter Strafe stellen.
Seit August 2025 gelten in der EU strengere Vorschriften für Künstliche Intelligenz. Anbieter müssen nun mehr Daten offenlegen. Damit sollen Urheberrechte besser geschützt werden.
02.08.2025 | 1:40 minZunehmend nicht prominente Frauen betroffen
Pornografische Deepfakes gibt es längst nicht nur von prominenten Frauen wie Schauspielerinnen, Sängerinnen oder Politikerinnen. Betroffen sind immer häufiger auch Frauen, die nicht in der Öffentlichkeit stehen.
Doch auch sie sind nicht hilflos. Josephine Ballon von der Menschenrechtsorganisation HateAid, rät Betroffenen, schnell zu handeln:
Wenn man solche Deepfakes von sich findet, sollte man unbedingt aktiv werden, auch wenn man sie vielleicht erst mal vergessen möchte.
Josephine Ballon, Co-Geschäftsführerin HateAid
Denn wenn man nicht aktiv werde, könnten sie sich ungehemmt verbreiten und das Problem werde mit jeder Stunde schlimmer, so Ballon.
Tausende Frauen erscheinen in gefälschten Porno-Videos. Darunter sind auch deutsche Politikerinnen, Sportlerinnen und Moderatorinnen. Einige von ihnen wehren sich öffentlich.
11.12.2024 | 43:33 minAktiv werden heißt: die Plattformen zu kontaktieren, auf denen die Inhalte zu sehen sind, und einen Löschantrag zu stellen. Betroffene, mit denen das ZDF gesprochen hat, berichten immer wieder, dass die Plattformen darauf nur zögerlich reagierten. Teilweise wurden sie erst tätig, nachdem ihnen rechtliche Schritte angedroht wurden. Dennoch ist das der einzige Weg, die Inhalte zu entfernen. Auch bei Google gibt es dazu ein Meldeformular.
Hilfsorganisationen helfen bei Löschanträgen
Josephine Ballon von HateAid rät dazu, sich für die Löschanträge Hilfe zu holen, etwa bei einem Rechtsanwalt oder einer Hilfsorganisation. Denn immer wieder den eigenen Namen zu googeln und sich das manipulierte Material anzuschauen, sei extrem belastend.
Organisationen, die Betroffene unterstützen, sind etwa HateAid, Weißer Ring und Anna Nackt.
Außerdem wichtig ist: Beweise zu sammeln und Anzeige bei der Polizei zu erstatten. Denn im Einzelfall kann die Verbreitung pornografischer Deepfakes auch schon heute eine Straftat darstellen. In Deutschland gibt es einen ersten öffentlich bekannten Fall, in dem es zu einer Verurteilung gekommen ist.
Charlotte Greipl arbeitet in der ZDF-Fachredaktion "Recht und Justiz".
Sie wollen auf dem Laufenden bleiben? Dann sind Sie beim ZDFheute-WhatsApp-Channel richtig. Hier erhalten Sie die wichtigsten Nachrichten auf Ihr Smartphone. Nehmen Sie teil an Umfragen oder lassen Sie sich durch unseren Podcast "Kurze Auszeit" inspirieren. Zur Anmeldung: ZDFheute-WhatsApp-Channel.
Mehr zum Thema Künstliche Intelligenz
EU sieht Verstoß gegen Wettbewerbsrecht:Zugang für KI-Wettbewerber bei WhatsApp: Brüssel droht Meta
mit Video0:37Neues Netzwerk "Moltbook":Social Media für KI: Entwickeln Bots ein Eigenleben?
von Sven Riekenmit Video2:30
Weitere Ratgeber-Themen
Wenn die Beziehung toxisch ist:Narzissmus in der Partnerschaft - erkennen und handeln
von Julia Tschakertmit Video4:40Was bei der Hochzeit heute angesagt ist:Hochzeitstrends 2026: Bewusst, individuell und frei
von Eva Mühlenbäumermit Video4:06Abschminkprodukte bei Stiftung Warentest:Make-up-Entferner im Test: Welche Produkte überzeugen?
von Cornelia Petereitmit Video1:15