t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalAktuelles

Plattformen sagen gefälschten Pornos den Kampf an


Sex-Szenen mit Stars
Plattformen sagen gefälschten Pornos den Kampf an

Von t-online, str

12.02.2018Lesedauer: 3 Min.
Gal Gadot als "Wonder Woman": Der Kinostar spielt unfreiwillig die Hauptrolle in mehreren Pornos, die im Netz kursieren.Vergrößern des Bildes
Gal Gadot als "Wonder Woman": Der Kinostar spielt unfreiwillig die Hauptrolle in mehreren Pornos, die im Netz kursieren. (Quelle: Clay Enos/Warner Bros/dpa)

Sogenannte "Deep Fakes" stellen Onlineplattformen vor wachsende Probleme: Seit Ende 2017 fluten Nutzer die Foren mit gefälschten Pornos, die Stars angeblich beim Sex zeigen.

Künstliche Intelligenz und unsichtbare Bildbearbeitung macht es möglich. Die Entwicklung ist kaum noch aufzuhalten.

Ist das wirklich "Super Woman"-Darstellerin Gal Gadot, die sich da auf dem Bett räkelt? Man muss schon zweimal hinsehen, denn die Videofälschungen, die seit Ende letzten Jahres unter dem Oberbegriff "Deep Fake Porn" im Internet kursieren, sehen zum Teil täuschend echt aus.

Auch Schauspielerin Scarlett Johansson, Sängerin Taylor Swift und die angehende Prinzengattin Meghan Markle wurden im Netz schon zu unfreiwilligen Porno-Darstellerinnen gemacht, weil jemand ihre Gesichter mithilfe von schlauer Software in die schlüpfrigen Streifen hineinmontiert hatte.

Nach mehreren Berichten über die sogenannten "Deep Fakes" regt sich jedoch zunehmend Widerstand gegen diese Form des Missbrauchs. Und der Druck auf die Plattformbetreiber wächst.

Die Debatte begann im Dezember 2017

Empfohlener externer Inhalt
X
X

Wir benötigen Ihre Einwilligung, um den von unserer Redaktion eingebundenen X-Inhalt anzuzeigen. Sie können diesen (und damit auch alle weiteren X-Inhalte auf t-online.de) mit einem Klick anzeigen lassen und auch wieder deaktivieren.

Gegen Ende 2017 berichtete das Onlinemagazin "Motherboard" erstmals über das Reddit-Forum "/Deepfakes", in dem Nutzer die mithilfe von Künstlicher Intelligenz manipulierten Pornos präsentierten und sich über die Möglichkeiten der Technik austauschten. Erstellt wurden die Clips mithilfe von Open-Source-Werkzeugen wie "TensorFlow" von Google, einer Programmbibliothek für maschinelles Lernen in der Sprach- und Bildbearbeitung.

Seit Januar gibt es sogar eine App namens "FakeApp", mit der Menschen auch ohne Programmierkenntnisse Videos fälschen können. Befeuert durch weitere Medienberichte, gewann die Reddit-Gruppe in den vergangenen Wochen enorm an Popularität.

Wer viele Selfies von sich ins Netz stellt, kann zum Opfer werden

Um ein "Deep Fake" zu erstellen, benötigt man einen leistungsfähigen Rechner und ausreichend Fotomaterial von seinem Opfer. Für ein gutes Ergebnis werden etwa 500 aus verschiedenen Winkeln aufgenommene Bilder empfohlen. Filmstars liefern das Material durch ihre Arbeit. Auch deshalb trifft es sie besonders oft. "Deep Fake"-Software wird aber auch zum Erstellen von Rachepornos missbraucht. Die nötigen Bilder können sich die Täter aus den sozialen Medien, etwa Instagram besorgen.

Auch die Sexvideoplattform "Pornhub" hat die manipulierten Pornos bereits als "nicht einvernehmlich" verteufelt und von seiner Seite verbannt. Allerdings müssen die gefälschten Pornos erst von Nutzern als solche enttarnt und gemeldet werden. Auch Twitter geht gegen die manipulierten Sexfilmchen vor.

Vergangene Woche haben nun auch die Betreiber des Reddit-Forums die Reißleine gezogen, Hier nahm die Pornoflut mutmaßlich ihren Anfang. Das einschlägige Unterforum wurde diese Woche geschlossen, alle Einträge gelöscht. Die Gruppe hatte zuletzt mehr als 90.000 Abonnenten.

Nach dem Verbot weichen Fans auf andere Angebote aus

Reddit ist bekannt für seine extrem liberale Forenpolitik und einen laxen Umgang mit grenzwertigen Beiträgen. In einem Statement hieß es nun, Reddit habe seine Nutzerrichtlinien angepasst. Bisher war "unfreiwillige Pornografie" nur verboten, wenn sie die Darstellung von Minderjährigen einbezog – sprich: digital erstellte Kinderpornografie. Jetzt machte die Plattform klar, dass ihre Community-Regeln auch die Verbreitung von Sexbildern und -videos von Personen untersagen, die "offensichtlich ohne deren Erlaubnis erstellt oder gepostet wurden, einschließlich Darstellungen, die gefälscht wurden".

Vermutlich ist das Problem damit aber noch lange nicht aus der Welt. Die "Fake Porn"-Community weicht einfach auf andere Webangebote aus: Deep-Fake-Seiten bieten ihren Mitgliedern sogar technischen Support bei der Erstellung eigener Videos.

Doch schon der Besuch einer solchen Webseite kann für den Nutzer unerwünschte Nebeneffekte haben, warnt die IT-Sicherheitsfirma Malwarebyte. Denn die große Nachfrage nach "personalisiertem Porno" bietet ideale Voraussetzungen für Betrüger, die im Hintergrund ihr Geld mit Kryptowährungen machen.

Unfreiwillige Krytogeld-Produktion

Tatsächlich entdeckten die Experten im Quellcode eines Deep Fake-Forums ein sogenanntes Mining-Skript. Während der Besucher nichtsahnend auf der Seite surft, zwingt dieses Skript seinen Computer, Rechenleistung für das Kryptonetzwerk "Coinhive" bereitzustellen.

Neben Pornos kursieren noch eine ganze Reihe harmloserer "Deep Fake"-Formate im Netz, zum Beispiel Film- und Nachrichtenparodien. So machten sich US-Nutzer schon während des Präsidentschaftswahlkampfs einen Spaß daraus, die Gesichter der Rivalen Hillary Clinton und Donald Trump per "Faceswap"-Technologie auszutauschen. Entsprechende Spaß-Apps gibt es schon lange.

Empfohlener externer Inhalt
Youtube

Wir benötigen Ihre Einwilligung, um den von unserer Redaktion eingebundenen Youtube-Inhalt anzuzeigen. Sie können diesen (und damit auch alle weiteren Youtube-Inhalte auf t-online.de) mit einem Klick anzeigen lassen und auch wieder deaktivieren.

"Deep Fakes" zu Propagandazwecken

Auch die Macher von "Deep Fake"-Pornos verteidigten ihr Experimentieren mit der Technologie anfangs oft als harmlosen Scherz. Mehr und mehr zeichnet sich aber ab, dass es einen durchaus ernst zu nehmenden Markt gibt für das digital verfälschte Material. Schließlich lassen sich so Sexszenen realisieren, von denen Nutzer zuvor nur fantasieren konnten.

Zumindest aber geht es den Erschaffern von "Deep Fake"-Porn nicht darum, die Öffentlichkeit gezielt in die Irre zu führen. Medienexperten fürchten, dass es jedoch nur eine Frage der Zeit ist, bis "Deep Fake"-Software auch die politische Sphäre erreichen, Stichwort "Fake News".

Einen Ausblick darauf, was mit dieser Technik möglich wäre, gaben im vergangenen Jahr US-Forscher, die einen virtuellen Barack-Obama-Doppelgänger erschufen und falsche Reden halten ließen. Dafür brauchten sie allerdings ein Stimm-Double, der Obamas Stimme nachahmte. Auch das wird in Zukunft per Software möglich sein: Ein "Photoshop für Audio" ist bei Adobe bereits in Arbeit.

Verwendete Quellen
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website