Suizid-Aufforderung in Kindervideos YouTube geht gegen gefährliche Inhalte vor
Selbstmord-Aufforderungen in Kinderfilmen auf YouTube, anzügliche Kommentare unter Kindervideos und ein Werbeboykott: Im Kampf gegen jugendgefährdende Inhalte kündigt die Plattform jetzt Konsequenzen an.
Dass sich bei YouTube dringend etwas ändern musst, zeigte kürzlich die Rückkehr der sogenannten "Momo-Challenge". Diese künstliche Horror-Figur, die seit 2018 per WhatsApp-Nachricht kursierte, tauchte jetzt in in zunächst harmlos wirkenden YouTube-Videos für Kinder auf und forderte diese offenbar zum Selbstmord auf.
Bei YouTube zu sehen war unter anderem eine Episode der beliebten "Peppa Wutz"-Serie für Kleinkinder. Darin war eine anonyme Aufforderung zum Selbstmord versteckt. Auch in "Fortnite"-Clips seien Selbstmord-Botschaften gefunden worden und sogar in Videos der App "YouTube Kids", die sich explizit an Kinder richtet, berichtet "bild.de". Aufforderungen zum Selbstmord sind in Deutschland nicht strafbar, ebenso wenig wie Suizid selbst.
Auch der Rückzug mehrerer Werbepartner von der Plattform zwang YouTube zum Handeln. Die Firmen reagierten mit einem Boykott darauf, dass ihre Werbespots teilweise in Videos gezeigt wurden, die Pädophile anlockten. Auf YouTube sind solche Videos relativ leicht zu finden. Darunter sammeln sich oft anzügliche Kommentare an. Die Plattform steht deshalb bereits seit Jahren in der Kritik.
Keine Kommentare mehr unter Kinder-Videos
Jetzt hat YouTube die Konsequenzen gezogen und will unter anderem keine Kommentare unter Videos mehr zulassen, in denen Kinder zu sehen sind. Betroffen sind laut einem Statement von YouTube über zehn Millionen Videos. Die Aktion soll in den nächsten Wochen und Monaten ausgeweitet werden, es soll nur wenige Ausnahmen geben.
Kommentare sind ein sehr wichtiger Bestandteil von YouTube und dienen dem Austausch zwischen den Produzenten von Videos ("Creators") und den Nutzern ("Community"). Ein großer Teil der Nutzer von YouTube sind Minderjährige.
YouTube kündigte an, dass es neue Möglichkeiten geben wird, Kommentare zu klassifizieren, um unerwünschte Beiträge automatisch schneller erkennen und entfernen zu können. Diese sollen in Kürze zur Verfügung stehen.
Keine gefährlichen "Challenges" mehr
YouTube kündigte auch an, strenger gegen Produzenten von Videos vorzugehen, die für Minderjährige gefährliche Inhalte auf der Videoplattform veröffentlichen. Deshalb wurden bestimmte Kanäle geschlossen. Auch Videos, die gefährliche Herausforderungen ("Challenges") zeigen, sollen gelöscht werden. Nutzer hat das "Team YouTube" aufgefordert, solche Inhalte zu melden ""flaggen"). Kritiker hatten immer wieder angemerkt, dass schädliche Inhalte viel zu lange auf YouTube zu finden sind und leicht auffindbar seien – auch für Minderjährige.
- Facebook und Google: müssen mehr gegen Fake News tun
- Streit: Muss YouTube Nutzerdaten preisgeben?
Hinweis: Falls Sie viel über den eigenen Tod nachdenken oder sich um einen Mitmenschen sorgen, finden Sie hier sofort und anonym Hilfe.