Leipzig (ots) –
Sie sind täuschend echt: Bei sogenannten Deepfakes werden Fotos und Videos durch künstliche Intelligenz manipuliert. So kann ein Gesicht in eine andere Umgebung eingefügt werden. Sophie (Name geändert) ist genau das passiert: Gegen ihren Willen wurde mit dieser Technologie pornografisches Material von ihr erstellt und verbreitet. Die neue Folge der MDR-Reportagereihe „exactly“ berichtet über Betroffene solcher Taten und zeigt, ob es Möglichkeiten gibt, sich gegen die Manipulation zu wehren. Der Film ist ab sofort in der ARD Mediathek (https://www.ardmediathek.de/video/exactly/missbrauch-mit-ki-so-gefaehrlich-sind-deepfakes/mdr-fernsehen/Y3JpZDovL21kci5kZS9zZW5kdW5nLzI4MjA0MS8yMDIzMDkxODA4MDAvbWRycGx1cy1zZW5kdW5nLTc0MDQ) sowie ab heute 17 Uhr auf dem YouTube-Kanal „MDR Investigativ“ zu sehen.
Mit Apps auf dem Smartphone ist es mittlerweile einfach, pornografische Deepfakes auf dem Smartphone zu erstellen. In Sekundenschnelle werden die Gesichtszüge, Mimik und Bewegungen einer Person analysiert und auf den Körper von Pornodarstellerinnen und Pornodarstellern projiziert. Oft passiert das ohne das Einverständnis der Betroffenen.
Sophie (Name geändert) wurde mit solchen Inhalten erpresst. „Irgendwann hatte ich keine Kraft mehr, dagegen zu kämpfen. Ich habe dann alle meine Social Media-Profile gelöscht”, sagt sie. Deepfakes haben Sophies Leben langfristig verändert. Auch in der deutschen Influencer-Szene sind gefälschte Pornos ein Problem. Streamerin Shurjoka (Pia Scholz) ist selbst betroffen: „Menschen übernehmen Macht über mich als Person, über meinen Körper, gegen meinen Willen und zwingen mir ihre Fantasien auf”, erzählt Pia. Sie fühlt sich ohnmächtig gegen die Menge an Material, die im Internet von ihr kursiert. Sie erklärt: „Ich könnte einen Kartoffelsack tragen, und Leute würden einfach mein Gesicht nehmen und auf eine nackte Frau packen und genauso weitermachen wie vorher.” Von der Justiz fühlt Pia sich im Stich gelassen.
In der aktuellen Folge der Reportagereihe „exactly“ von Marie-Theres Brand kommt auch Professor Alexander Godulla zu Wort, der seit 2020 an der Universität Leipzig zum Thema Deepfakes forscht. Er will die Möglichkeiten und die Risiken der Technologie gesellschaftlich sichtbarer machen. „Die Gesellschaft ist in ihrer Breite nicht auf diese Technologie vorbereitet”, meint er. Professor Godulla zeigt den technischen Fortschritt der letzten Jahre und die Orte im Internet, an denen explizite Deepfakes ausgetauscht werden.
In Deutschland gibt es Gesetze, die sich auf pornografische Deepfakes beziehen können, wie zum Beispiel die Verletzung des Rechts am eigenen Bild. Ein eigenes Gesetz für die Erstellung, Verbreitung und Veröffentlichung von Deepfake-Pornos gibt es nicht. Anwältin Josephine Ballon hält das für eine Gesetzeslücke. Sie arbeitet für die Organisation HateAid, welche Betroffene digitaler Gewalt berät, und sagt: „Es wird suggeriert, dass es den Staat nicht interessiert, dass vermeintliche Nacktfotos von dir in aller Öffentlichkeit kursieren. Man kann es anzeigen, und irgendwie wird es im Gesetz auch abgebildet, aber es wird so gut wie nie verfolgt“, erklärt sie in der Reportage.
Pressekontakt:
Thomas Ahrens, MDR-Landesfunkhaus Sachsen-Anhalt, Presse- und Öffentlichkeitsarbeit, Tel. (0391) 539 21 21
Original-Content von: MDR Mitteldeutscher Rundfunk, übermittelt durch news aktuell
Quelle: ots