Training für Facebook Britische Polizei dreht Terror-Videos
Eine Anti-Terror-Abteilung der Polizei dreht Videos im Stile der Attentäter von Christchurch oder Halle. Das Material soll Facebook dabei helfen, solche Videos in Zukunft automatisch zu löschen.
Schreie gellen, eine Hand ist aus der Ich-Perspektive zu sehen, wie sie mehrfach eine Waffe abfeuert. Obwohl die Szenen gestellt sind, wirken die Ausschnitte aus dem Video bedrohlich und echt – und das sollen sie auch.
Gedreht wurden sie von einer britischen Anti-Terror-Einheit, berichtet der britische TV-Sender BBC. Sie sollen helfen, derlei Videos online künftig automatisch löschen zu können.
Vorbild ist das Video von Christchurch
Als Vorbild dienten dabei Videos wie das vom rechtsextremistischen Terroristen Brenton Tarrant, der im März dieses Jahres bei einem Anschlag auf zwei Moscheen in Christchurch 51 Menschen tötete.
Er filmte seine Tat dabei mit einer Helmkamera und streamte die Aufnahmen ins Internet. Facebook und andere Videoplattformen hatten große Mühe, die Verbreitung des Videos anschließend zu unterbinden. Denn vielfach werden die Videos von Nutzern bearbeitet und wieder hochgeladen, damit sie nicht automatisch gesperrt werden können.
Bekämpfung der Videos ist schwierig
"Wir haben über 800 verschiedene Variationen von diesem Video gesehen, die aggressiv geteilt wurden. Da haben regelrecht Teams von Nutzern versucht, das Video zu manipulieren und immer wieder neu hochzuladen", berichtet Erin Saltman, die Anti-Terror-Beauftragte von Facebook gegenüber dem britischen TV-Sender Sky News.
Deshalb sei Facebook auf britische und amerikanische Polizeibehörden zugegangen und habe sie um Hilfe gebeten, ähnliches Videomaterial zu erstellen, damit das Unternehmen seine künstliche Intelligenz (KI) damit trainieren könne.
- Nach Christchurch-Attentat: Facebook plant härtere Strafen für Nutzer
- Angriff auf Juden in Halle: Wie sich Stephan B. radikalisierte – und nun verspottet wird
Facebooks KI-System soll die Videos dabei tatsächlich inhaltlich analysieren und so terroristisches Material im besten Fall direkt beim Upload löschen können. Nach eigener Aussage hat Facebook in den vergangenen zwei Jahren bereits über 26 Millionen terroristische Inhalte gelöscht.