Derzeit geht es noch vor allem um Promi-Fakes. Doch weitere Anwendungsfälle dürften bald folgen: "Kann ich damit auch meinen Schwarm in einen Porno schneiden", fragt ein, vermutlich männlicher, Nutzer im Deepfakes-Forum. "Darum geht es doch letztendlich", antwortet ihm ein anderer. Man müsse eben nur genug Material haben, um den Algorithmus zu trainieren.
Das gibt es inzwischen genug. Nimmt man zu Fotodiensten wie Google Photos noch Plattformen wie Instagram, Facebook und Twitter dazu, fallen Milliarden an Selfies pro Jahr an. Die fotografische Präsenz in den sozialen Netzwerken, dank Snapchat oder Features wie den Instagram Stories zunehmend auch in Form von Videos, bringt riesige Datenmengen hervor – und damit auch neues Missbrauchspotenzial.
In den vergangenen Jahren standen zudem häufig sogenannte Rachepornos
im Mittelpunkt: Nacktbilder oder Videos, die ursprünglich zwischen zwei
Menschen geteilt wurden, aber schließlich, etwa nach einer Trennung oder
aufgrund von Hackerangriffen, im Internet landeten. Bekannt wurden vor allem die Fälle, in denen das bekannte Persönlichkeiten
wie Jennifer Lawrence betraf, doch außerhalb der Öffentlichkeit sind davon deutlich mehr Menschen betroffen. Eine Umfrage
des Instituts Data & Society kam 2016 zu dem Ergebnis, dass einer von
25 amerikanischen Internetnutzern schon einmal erlebt hatte, dass private Fotos
ohne Erlaubnis verbreitet wurden oder dies zumindest angedroht wurde. Vor allem
Frauen unter 30 Jahren sind betroffen.
Wer Pornos fälscht, macht sich strafbar
Nimmt man alles zusammen – die zahlreichen Foto- und
Videoquellen, das Potenzial für Missbrauch und die technischen Entwicklungen –
dann ist der Weg vom Rache- zum Fake-Porno nicht weit. Für die Betroffenen
dürfte es dabei keine Rolle spielen, dass es sich eigentlich um Fälschungen
handelt. Denn je besser die Software wird, desto schwieriger wird es, das zu
erkennen.
Aus juristischer Sicht ist die Sache jedenfalls klar: "Solche Videos verletzen einerseits das Recht am eigenen Bild", sagt der Rechtsanwalt für Medienrecht, David Geßner, im Gespräch mit ZEIT ONLINE. "Dabei spielt es auch keine Rolle, ob die Ausgangsbilder in einer Form bereits öffentlich zugänglich waren oder nicht." Andererseits handelt es sich auch um eine Verletzung der persönlichen Ehre als Teil des allgemeinen Persönlichkeitsrechts: "In diesem Kontext könnte man vermutlich auch von einer Sexualbeleidigung sprechen", sagt Geßner.
Die Opfer von Fake-Pornos können ebenso wie die Opfer von Rachepornos strafrechtlich gegen die Täter vorgehen und auch zivilrechtliche Ansprüche stellen, vom Unterlassungsanspruch bis hin zu Schadensersatzzahlungen. Und das nicht nur an die Personen, die es veröffentlicht haben, sondern prinzipiell an alle, die es weiterverbreiten. Gleichzeitig weiß der Berliner Medienanwalt, wie schwer es ist, die Inhalte wieder aus dem Netz zu bekommen. "Wenn man nicht sofort reagiert, verbreiten sich die Inhalte schnell in alle Ecken, bis man auch an die Provider nicht mehr herankommt", sagt Geßner. Das könne vor allem für Privatpersonen fatal sein: "Bei Promis vermutet man noch eher, dass sie einen Porno nicht gedreht haben. Für alle anderen ist der Eingriff noch einmal drastischer."
Alles wird gefälscht
Pornografie mag einmal mehr der Katalysator für eine neue Technik sein und FakeApp die Spielerei eines Enthusiasten. Doch die Implikationen von maschinellem Lernen, neuronalen Netzwerken und künstlicher Intelligenz sind weit größer, wenn es um gefälschte Inhalte geht. Nach der Schrift und dem Foto muss im Zeitalter von Fake News und "alternativen Fakten" immer häufiger auch die Authentizität von Ton- und Videoaufzeichnungen hinterfragt werden.
Die Zeiten, in denen die Handmittel dafür nur Experten zugänglich waren, sind vorbei. Ähnlich wie Photoshop die Bildbearbeitung – und damit die Bildmanipulation – demokratisierte, könnten Algorithmen die Fälschung von Videos und Ton jedem ermöglichen, der einen einigermaßen aktuellen Computer und ein wenig Softwareverständnis hat.
Der Rechtsanwalt David Geßner konnte in den vergangenen Jahren bereits zunehmend Fälle von Rachepornos und Intimsphäreverletzungen durch verschmähte Ex-Partner beobachten. Er kann sich vorstellen, dass künftige Entwicklungen, sowohl in den sozialen Netzwerken als auch in Sachen künstlicher Intelligenz, für weitere Probleme sorgen werden. Da man die Technik nicht unterbinden kann, sei vor allem der Gesetzgeber gefordert. "Wenn es um Persönlichkeitsrechtsverletzungen geht, hängt die Rechtsprechung den Entwicklungen des Internets meilenweit hinterher", sagt Geßner, "wir müssen Maßnahmen zur schnelleren Verfolgung von Tätern und direkten Auskunftsansprüchen bei den Providern finden."
Für den Nutzer Deepfakes dagegen hat die Debatte eine gute
Seite: "Es kann nicht schaden, wenn sich auch der durchschnittliche Bürger
mit maschinellem Lernen beschäftigt", sagt er abschließend im Gespräch mit
Motherboard. Auch die tollste Technik
könne stets aus niederen Beweggründen eingesetzt werden und Diskussionen könnten
nicht schaden. Von Respekt gegenüber den Prominenten und Darstellerinnen, die
durch seine App zweckentfremdet und ihrem Persönlichkeitsrecht verletzt wurden, will er nichts wissen.
117 Kommentare
derneuekarl
Ja, es ist rechtswidrig, aber wohl keine vorsätzliche Beleidigung. Es wird meines Wissens nach auch keines der Fakes als echt ausgegeben.
Da hat jemand die Pointe nicht verstanden (nicht nur die, dass es ausgerechnet Maisie Williams bzw. Game-of-Thrones-Stars trifft): Das Ganze wird hobbymäßig entwickelt und getestet.
Das Potenzial der beschriebenen Technik lässt sich ohne intensive Recherche oder teure Investition in Bildmaterial in größerer Vielfalt praktisch nur mit Pornos demonstrieren. Man benötigt einen Gesichtsspender, dessen Abbild massenhaft in unterschiedlichen Varianten verfügbar ist. Schauspielerinnen führen vor Politikern und anderen Prominenten. Dann wird eine je nach gewünschter Schwierigkeit längere oder kürzere Aufnahme von einem Körperspender ähnlicher Statur benötigt, in der sowohl Körper als auch Gesicht aus unterschiedlichen Perspektiven zu sehen sind und die Mimik halbwegs interessant ist. Das suchen Sie lange auf Youtube, und die übrige rechtliche Problematik (neben der vermeintlichen Herabsetzung) bliebe dieselbe.
Aber natürlich widmet sich ein deutschsprachiger Artikel mindestens zur Hälfte der Frage, welche Gefahren in der Technik lauern und wie man die "Täter" verfolgen kann.
CriticalRealism
Gesichter in Videos können also in naher Zukunft gezielt manipuliert werden. Hier darf man wohl einmal mehr die Sinnhaftigkeit der Verbreitung von Videoüberwachung in Frage stellen.
mindphuk
Es ist hier wie überall: Was gemacht werden kann, wird auch gemacht, auf die eine oder andere Art. Als nächstes kommt sicherlich 3D-technik zum Einsatz, wo mit KI gerenderte, fotorealistische Bilder und Szenen mit den Daten echter Menschen gefüttert werden.
Aufhalten kann man sowas nur schwer. Zudem kommt auch noch, dass das Recht am eigenen Bild nicht in allen Ländern genauso gilt wie in Deutschland. In den USA sind die Gesetze da zB viel lascher: Wird man im öffentlichen Raum fotographiert, dann ist das behalten und weiterverbreiten der Bilder idR legal. Und selbst wenn man die Persönlichkeitsrechte durchsetzen kann, ist das Löschen von Material aus dem Internet so gut wie unmöglich, irgendwo kann immer noch ein Server stehen, auf dessen Datenbank irgendwas gelandet ist, entweder absichtlich oder aber vergessen/übersehen.
Es wird nur einmal mehr wieder deutlich, wie wichtig Datenhygiene und Datensparsamkeit ist. Insbesondere auch bei Kindern, die die Risiken entweder nicht einschätzen können oder aber deren Eltern Fotos unbekümmert in's Netz stellen.
elatezet
:)
Postis Plenus
Wobei die Gesichter der gefakten oder echten Porneusen ja auch das Interessanteste überhaupt darstellen ...
Pyradonis
Gabs bei Running Man doch schon , was man mit der Manipulation von Videos so anstellen kan. Damals noch Fiktion einer Dystopie in den 80ern.
Pacratius
Fake News---Fake Porn---was kommt als nächstes?
Fake Life....war alles nur ein Scherz?...Wir stehen am Ende vor dem Herrn...und der lacht sich eins?
Valmel
Merkel-Porn incoming *grusel* ;)