Missbrauch mit KI: So gefährlich sind Deepfakes
Missbrauch mit KI: So gefährlich sind Deepfakes
Deepfakes auf dem Smartphone erstellen – Apps und KI machen es möglich. In Sekundenschnelle können Deepfake-Technologien die Gesichtszüge, Mimik und Bewegungen einer Person analysieren und sie und Fotos und Videos auf den Körper von Pornodarstellerinnen packen – ohne das Einverständnis der Betroffenen.
Sophie (Name geändert) ist ungewollt in pornografischen Deepfakes gelandet und wurde mit dem Material erpresst. Deepfakes haben ihr Leben langfristig verändert. Auch Streamerin Shurjoka (Pia Scholz) ist in gefakten Pornos aufgetaucht. Pia erzählt in der Doku, wie sie sich dagegen zur Wehr setzt.
Professor Alexander Godulla von der Universität Leipzig forscht seit 2020 mit seinem Team zum Thema Deepfakes. Er will über die Risiken und Möglichkeiten der Technologie und der Künstlichen Intelligenz aufklären. exactly zeigt er den technischen Fortschritt der letzten Jahre und die Orte im Internet, an denen User explizites Material austauschen.
In Deutschland gibt es Gesetze, die sich auf pornografische Deepfakes beziehen können – wie die Verletzung des Rechts am eigenen Bild. Ein eigenes Gesetz, das die Erstellung, Verbreitung und Veröffentlichung von Deepfake-Pornos regelt, gibt es nicht. Wir treffen in der Reportage Anwältin Josephine Ballon von HateAid, einer Organisation, die Opfer von digitaler Gewalt unterstützt.
Ist Deutschland ein Traumland für Deepfakes? exactly probiert aus, wie schwierig es ist, mit Apps einen Fake zu erstellen. Da die Technologie für alle verfügbar ist, können immer häufiger Personen aus dem eigenen Umfeld zu Opfern werden.
00:00 Intro
00:57 Shurjoka, JasminGnu und QTCinderella über Deepfake-Pornos
04:17 Sind wir für Deepfake-Technologie gewappnet?
06:44 App-Selbstversuch: Wie leicht ist es, einen Deepfake zu erstellen?
10:05 Digitaler Mi$$brauch
12:06 4Chan und Porno-Plattformen: Wer erstellt das Material und warum?
19:26 Sind Deepfake-Pornos strafbar? Die rechtliche Lage
Missbrauch mit KI: So gefährlich sind Deepfakes | Doku | exactly
Autorin: Marie-Theres Brand
Quellen & weiterführende Links:
- Das Deepfake-Projekt der Universität Leipzig:
https://www.deepfake-project.com/de/ - Forderung von HateAid nach stärkeren Gesetzen für Deepfakes:
https://hateaid.org/petition/porno-manipulation/ - YouTuberin Jasmin Gnu über digitalen Mi$$brauch:
https://www.youtube.com/watch?v=Zib5U3ebUzw - Risiken von Deepfakes:
https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html - Studie der Cybersecurity-Firma Deeptrace über Gefahren und Auswirkungen von Deepfakes:
https://regmedia.co.uk/2019/10/08/deepfake_report.pdf