Wenn das Recht auf Persönlichkeit verhandelbar wird
Die Debatte um Deepfakes, also mithilfe von Künstlicher Intelligenz (KI) generiertes und manipuliertes Bildmaterial, ist längst keine kleine digitale Spielerei mehr. Es ist wie ein Puzzle, bei dem sich die Teile zu einem erschreckenden Gesamtbild zusammensetzen. Klar, der amerikanische Präsident Donald Trump, der in einem roten Kleid „Summertime Sadness“ singt, ist allemal ein witziger Anblick, der sich leicht von der Realität unterscheiden lässt. Ein Video zur harmlosen Unterhaltung kann hingegen schnell zu einer Bedrohung von Persönlichkeitsrechten und Würde werden.
Manipulation wird zur Methode
Deepfakes zeigen Ereignisse, die nie stattgefunden haben. Schon die Bezeichnung verrät die Absicht: Täuschung. Das dahinterstehende Prinzip ist gefährlich einfach. Verliert man die Hoheit über seine Bilder, verliert man ein Stück der eigenen Identität. Bereits in Zeiten ohne KI wurden Fotos retuschiert und Aussagen verfälscht, um Menschen zu diskreditieren. Doch was früher mühsam war, kann heute jede*r ganz einfach mit ein paar Klicks auf dem Smartphone. Je niedriger die technische Hürde, desto höher der Schaden: 2023 kursierten rund 500.000 Audio- und Video-Deepfakes auf Social-Media-Plattformen, für 2025 werden bis zu 8 Millionen erwartet.
Ein Beispiel dafür sind die ersten Deepfake-Pornovideos, die im Herbst 2017 auf Reddit erschienen. Ein User namens „DeepFake“ veröffentlichte pornografische Videos, in denen er das eigentliche Gesicht jeweils gegen das der Schauspielerinnen Emma Watson, Gal Gadot und Weiteren austauschte. Eine perfide Form des „Face-Swapping“. Als Folge tauchten im Darknet massenhaft manipulierte Pornos auf. Laut einer Untersuchung des amerikanischen Cybersecurity-Unternehmens Home Security Heroes im Jahr 2023 handelt es sich bei den Betroffenen von Deepfake-Pornos zu 99 Prozent um Frauen. Spätestens hier wird deutlich: Ohne klare gesetzliche Regeln bleiben Betroffene schutzlos.
Hinzu kommt ein weiteres beunruhigendes Teil, welches das Horror-Puzzle fast vervollständigt. Während früher Paparazzi Bilder aus dem Kontext rissen, reichen heute, dank des technischen Fortschritts, harmlose Fotos auf Instagram, um jemanden virtuell zu entkleiden. Laut einer Channel-4-Recherche seien bereits über 4000 prominente Frauen betroffen, nicht prominente Frauen noch stärker. 2023 berichtete der Sender EuroNews über einen Fall an einer spanischen Schule, in der mithilfe der App „ClothOff“ Instagram-Bilder von Mädchen manipuliert und ihnen anschließend zugeschickt wurden. Wenn sogar Kinder betroffen sind, zeigt es, dass niemand ausschließen kann, selbst zum Opfer zu werden – gerade Frauen, die in der Öffentlichkeit stehen. Das Argument, wer Öffentlichkeit sucht, müsse den Missbrauch von Bildern in Kauf nehmen, greift moralisch wie logisch zu kurz. Nach dieser Logik müsste jede Person, die ihr Haus verlässt, mit einem Einbruch rechnen.
Was jetzt?
Es wäre naiv, zu glauben, das Problem löse sich von selbst. Acht Jahre nach den ersten Fällen gibt es immer noch keine spezifischen Regelungen. Deepfakes fallen in Deutschland unter diverse Normen, doch ein Flickenteppich an Juristensprech schützt niemanden effektiv. Zwar schafft der EU-„AI Act“ Transparenzvorschriften, Deepfakes bleiben aber dennoch online, solange sie mit Wasserzeichen gekennzeichnet sind. Einige rechtliche Maßnahmen des „AI Acts“ konzentrieren sich auf pornografische Deepfakes. Wie jedoch die Strafe ausfällt, ist den Mitgliedsstaaten überlassen.
So wie es globale Abkommen gegen Kinderpornografie gibt, braucht es verbindliche strafrechtliche Standards gegen den Missbrauch von Deepfakes: Pornografische Deepfakes müssen ausnahmslos verboten und entsprechende Plattformen konsequent gesperrt werden. Nur so lässt sich der Schutz unserer Persönlichkeit neu zusammenpuzzeln.
Deine Meinung interessiert uns
Ja
Nein