t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalAktuelles

Video des Christchurch-Attentats: Allein Facebook hat 1,5 Millionen Kopien gelöscht oder geblockt


Video des Christchurch-Attentats
Allein Facebook hat 1,5 Millionen Kopien gelöscht oder geblockt

dpa, Andrej Sokolow, Christoph Sator

Aktualisiert am 17.03.2019Lesedauer: 3 Min.
Blumen an einem der Tatorte in Neuseeland: Nach dem Terroranschlag auf eine Moschee in Christchurch verteidigt Facebook seinen Umgang mit den Videos von dem Anschlag.Vergrößern des Bildes
Blumen an einem der Tatorte in Neuseeland: Nach dem Terroranschlag auf eine Moschee in Christchurch verteidigt Facebook seinen Umgang mit den Videos von dem Anschlag. (Quelle: Edgar Su/Reuters-bilder)

Der Attentäter von Christchurch übertrug seine Bluttat live bei Facebook. Obwohl sein Konto gelöscht wurde, kämpfen die großen Plattformen immer noch gegen die Verbreitung des Videos an. Warum?

Das äußerst brutale Video des Anschlags auf zwei Moscheen in Neuseeland ist schwer aus dem Netz zu bekommen. Der Fall zeigt, dass Plattformen gegen die Verbreitung solcher gewaltverherrlichenden Videos nahezu machtlos sind.

Wie gehen Online-Plattformen grundsätzlich gegen Videos mit nicht erlaubten Inhalten vor?

Ursprünglich waren die Unternehmen darauf angewiesen, dass jemand sie darauf hinweist. Inzwischen setzen sie auch Software dafür ein: um Kinderpornografie oder Gewalt automatisch zu erkennen, aber auch, um Datenbanken für Fotos und Videos anzulegen, die bereits entdeckt wurden. Darin wird eine Art digitaler Fingerabdruck der Dateien gespeichert. Ziel ist, sie bei einem erneuten Hochladen sofort wiederzuerkennen und zu entfernen.

Wie gut funktionierte das System im Fall Christchurch?

Der Angreifer hatte seine Bluttat per Facebook Live übertragen, der Plattform des Online-Netzwerks, auf der jeder Videobilder in Echtzeit ins Netz bringen kann. Facebook löschte das 17-minütige Video nach einem Hinweis der Polizei. Aber zuvor schon hatten Nutzer Mitschnitte davon gemacht, die sie zum Beispiel auf YouTube hochluden. Die Dienste hatten Probleme, die immer wieder neu auftauchenden Kopien zu entfernen.

Um welches Ausmaß geht es hier?

Allein Facebook entfernte nach eigenen Angaben von Sonntag 1,5 Millionen Videos mit Darstellungen des Anschlags – und zwar nur in den ersten 24 Stunden. In 1,2 Millionen Fällen wurde dabei schon das Hochladen unterbunden. Seither wird alles genau beobachtet. "Wir arbeiten rund um die Uhr daran", sagte eine Sprecherin. Facebook-Chefin Sheryl Sandberg war dazu mit Neuseelands Premierministerin Jacinda Ardern in Kontakt. Dort will man nun prüfen, wie das künftig verhindert werden kann. Ardern sagte am Sonntag aber auch: "Das Problem geht weit über Neuseeland hinaus."

Schafft man es, das Video grundsätzlich aus dem Netz zu verbannen?

Nein. Denn selbst wenn die Internet-Riesen Facebook, YouTube und Twitter erfolgreich sind – es gibt auch andere Plattformen, die wenig dagegen unternehmen. Aus Sicht von Kritikern machen die US-Konzerne grundsätzlich aber viel zu wenig. Tatsächlich wird die Kontrolle oft auf Sub-Unternehmer ausgelagert, die Leute zu Billiglöhnen in ärmeren Ländern beschäftigen. Ein Zentrum davon ist Manila, die Hauptstadt der Philippinen. Dort sind viele Tausend "Cleaner" von früh bis spät beschäftigt, Dreck aus dem Internet zu entfernen.

Was sagt der Fall über die Fähigkeiten der Dienste aus, verbotene Inhalte von ihren Plattformen fernzuhalten?

Es ist schier unmöglich, die Masse ständig neu geteilter Inhalte von Menschen kontrollieren zu lassen. Facebook ist aber noch nicht so weit, dies komplett Software überlassen zu können. Auch bei YouTube offenbarten sich Defizite der Software, die bereits bekannte Videos Plattform fernhalten soll.

Woran liegt das?

Ein Problem dürfte sein, dass Algorithmen immer noch ausgetrickst werden können – zum Beispiel wenn jemand Änderungen an den Bildern vornimmt. Eine weitere Herausforderung ist, dass Fragmente aus solchen Videos auch in Medienberichten enthalten sein können, die nicht gelöscht werden sollen. Heute muss noch fast immer ein Mensch den Kontext bewerten.

Kommt das alles überraschend?

Nein, Facebook Live geriet schon mehrfach in Negativschlagzeilen, weil Gewalt übertragen wurde. So schockierte die Öffentlichkeit ein Fall im Frühjahr 2017. Damals übertrug ein Mann in den USA, wie er einen Rentner ermordete. Der Livestream blieb danach zunächst zum Abruf verfügbar. Facebook geriet in die Kritik, weil das Video zwar 23 Minuten nach dem ersten Nutzer-Hinweis gelöscht wurde – aber insgesamt über zwei Stunden online blieb. Ein erstes Video, in dem die Tat angekündigt worden war, blieb unbemerkt.

Was könnten die Folgen sein?

Die Online-Plattformen stehen schon seit Jahren unter massivem Druck aus der Politik, Beiträge mit Gewalt, Hassrede oder Terrorpropaganda schneller zu entfernen. Sie verweisen immer wieder darauf, wie viel besser das inzwischen funktioniert, und dass viele Inhalte schon gelöscht werden, noch bevor sie auch nur ein Nutzer gesehen hat.

Christchurch zeigt die aktuellen Defizite – und könnte zugleich die Bereitschaft der Politik senken, die Schwächen hinzunehmen. So sagte der einflussreiche US-Senator Mark Warner der Website "The Hill", die rasche Verbreitung des Videos zeige, wie leicht die größten Plattformen immer noch missbraucht werden könnten.

Gibt es auch Nuancen im Umgang mit Gewalt in Videos?

2016 offenbarte der Livestream einer Polizeikontrolle, bei der der Amerikaner Philando Castile starb, einen Fall ungerechtfertigter Gewalt, der sonst vielleicht nie hätte nachgewiesen werden können. Das entsprach dem öffentlichen Interesse – bedeutete aber auch, dass man einen Menschen sterben sah.

Verwendete Quellen
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website