FAQ zu Deepfake-Pornografie: Warum sind Deepfakes problematisch?
Deepfakes sind kaum noch von echten Inhalten zu unterscheiden. Vor allem die Erstellung pornografischer Inhalte wird zum Problem für Betroffene.
Ein Video, das echt wirkt, aber nie passiert ist. Ein Foto, das eine Person zeigt, die dort nie war. Möglich macht das Künstliche Intelligenz – sogenannte Deepfakes. Die Technik entwickelt sich rasant und wird immer leichter zugänglich. Was früher aufwendig war, lässt sich heute oft mit wenigen Klicks erstellen. Besonders problematisch ist die Erstellung von Deepfake-Pornografie. Wer betroffen ist, wie man sich schützen kann und was rechtlich gilt.
Was ist Deepfake-Pornografie?
Die KI-Verordnung der EU definiert Deepfakes als „einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt erscheinen kann“.
Kurz gesagt sind es manipulierte Aufnahmen, bei denen zum Beispiel der Kopf einer Person auf den Körper einer anderen gesetzt wird. Das taucht besonders häufig in der sogenannten Deepfake-Pornografie auf. Dabei werden sexualisierte oder pornografische Inhalte mit echten Personen erstellt, meist ohne deren Wissen oder Zustimmung.
Da viele KI-Tools solche Funktionen inzwischen anbieten, ist die Erstellung von Deepfakes grundsätzlich für fast alle zugänglich. Gleichzeitig ist die Technik so weit fortgeschritten, dass die Ergebnisse täuschend echt wirken. Die Zeiten, in denen man KI-Bilder noch an merkwürdigen Details wie zu vielen Fingern erkennen konnte, sind weitgehend vorbei.
Kann ich Deepfakes trotzdem erkennen?
Ganz ausschließen lässt sich das nicht, aber es wird immer schwieriger. Ein genauer Blick auf Details kann helfen: Wirkt ein Gesicht unscharf im Vergleich zum Hintergrund? Sitzen markante Merkmale wie Muttermale an der falschen Stelle? Blinzelt die Person?
In vielen Fällen reicht das allerdings nicht mehr aus. Deshalb arbeiten Forschungseinrichtungen wie das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit daran, mit KI erstellte Aufnahmen zu erkennen, und zwar mithilfe von KI selbst.
Wer ist von Deepfake-Pornografie betroffen?
Studien zeigen ein deutliches Bild: Betroffen sind vor allem Frauen, die Täter meistens Männer. Deepfake-Pornografie ist damit nicht nur ein technisches, sondern auch ein gesellschaftliches Problem.
Für Aufmerksamkeit sorgte Anfang des Jahres etwa der Chatbot Grok auf der Plattform X. Nutzer:innen konnten damit relativ einfach sexualisierte Bilder von realen Frauen erstellen. Eine Untersuchung von AI Forensics ergab, dass mehr als die Hälfte der mit Grok generierten Bilder Personen in freizügiger Kleidung zeigten, rund 80 Prozent davon waren Frauen.
Das Problem betrifft längst nicht mehr nur Prominente. Auch Privatpersonen geraten zunehmend ins Visier, etwa durch manipulierte Bilder aus sozialen Netzwerken. Für Betroffene kann das schwerwiegende Folgen haben von Rufschädigung bis hin zu psychischer Belastung.
Wie ist die rechtliche Lage in Deutschland?
Spezielle Gesetze nur für Deepfakes gibt es in Deutschland bisher nicht. Allerdings plant Bundesjustizministerin Stefanie Hubig ein „digitales Gewaltschutzgesetz“, das hier nachschärfen soll. Ziel ist unter anderem, Betroffenen bessere Möglichkeiten zu geben, sich gegen die Verbreitung gefälschter pornografischer Inhalte zu wehren.
Aktuell müssen Betroffene oft auf bestehende Regelungen zurückgreifen wie die zum Schutz des höchstpersönlichen Lebensbereichs (Paragraf 201a StGB) oder das Recht am eigenen Bild (Paragraf 22 KunstUrhG). Diese greifen aber nur in bestimmten Fällen und sind nicht speziell auf Deepfakes zugeschnitten.
Gibt es Regelungen auf EU-Ebene?
Ja. Die KI-Verordnung der EU, die im Juni 2024 in Kraft getreten ist, enthält auch Vorgaben zu Deepfakes. Anbieter von KI-Systemen müssen demnach sicherstellen, dass Inhalte als künstlich erzeugt oder manipuliert gekennzeichnet sind – allerdings in einem maschinenlesbaren Format, also nicht unbedingt sichtbar für Menschen. Für Privatpersonen gilt diese Pflicht nicht.
Außerdem verpflichtet der Digital Services Act Plattformen dazu, illegale Inhalte – etwa Deepfake-Pornografie – möglichst schnell zu entfernen. In der Praxis funktioniert das bislang aber nicht immer zuverlässig.
Was kann ich tun, wenn ich selbst betroffen bin?
Ein erster Schritt kann sein, Anzeige zu erstatten. Auch wenn die rechtliche Lage noch lückenhaft ist, können bestehende Gesetze in bestimmten Fällen greifen.
Zudem gibt es praktische Möglichkeiten, gegen die Verbreitung vorzugehen: Bei Google können Betroffene über ein spezielles Formular beantragen, dass entsprechende Bilder oder Videos aus den Suchergebnissen entfernt werden. Wichtig dabei ist, dass die Inhalte nicht automatisch von den Plattformen selbst verschwinden, auf denen sie hochgeladen wurden. Deshalb kann es sinnvoll sein, sich direkt an die jeweiligen Plattformen zu wenden und dort eine Löschung zu verlangen.
Unterstützung bieten zudem Beratungsstellen wie HateAid oder das Hilfetelefon „Gewalt gegen Frauen“. Sie helfen dabei, rechtliche Schritte zu prüfen und mit den Folgen umzugehen.
Gemeinsam für freie Presse
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert