Facebook und YouTube löschen Millionen extremistische Inhalte
Facebook und YouTube gehen verstärkt gegen Terror-Propaganda vor. Nach Angaben der Unternehmen wurden 2018 bereits Millionen Inhalte gelöscht.
Facebook geht nach eigenen Angaben härter denn je gegen extremistische Inhalte auf seiner Plattform vor: Im ersten Quartal 2018 löschte das weltgrößte Online-Netzwerk hunderttausende Beiträge mit Bezug zu den Terrororganisationen Islamischer Staat (IS) und Al-Kaida. Insgesamt seien 1,9 Millionen Beiträge entfernt oder mit Warnhinweisen versehen worden - doppelt so viele wie im vorangehenden Quartal, teilte Facebook am Montag (Ortszeit) mit. 99 Prozent davon wurden demnach nicht von Benutzern gemeldet, sondern von automatisierter Software und eigenen Prüfern entdeckt. Im Durchschnitt seien solche Beiträge für weniger als eine Minute auf der Plattform verfügbar, hieß es.
Neue Strategie: Gegen Gewalt und Terror-Inhalte
Zugleich veröffentlichte der Online-Dienst Facebook seine Definition von Terrorismus: "Jede Nichtregierungsorganisation, die vorsätzliche Gewalttaten gegen Personen oder Eigentum begeht, um eine zivile Bevölkerung, Regierung oder internationale Organisation einzuschüchtern, um ein politisches, religiöses oder ideologisches Ziel zu erreichen." Regierungen hingegen dürften nach rechtlichem Verständnis unter bestimmten Umständen rechtmäßig Gewalt anwenden.
Mit dem Aufspüren extremistischer Beiträge befasst sich ein auf Terror-Inhalte spezialisiertes Team. Laut Facebook ist die Gruppe seit Juni vergangenen Jahres von 150 auf 200 Mitarbeiter angewachsen, weitere sollen hinzukommen.
Anfang März hatte die Europäische Kommission neue Richtlinien zur Entfernung terroristischer und anderer illegaler Inhalte auf Facebook und anderen Online-Plattformen erlassen, um den Druck auf die Anbieter zu erhöhen.
Bedenkliche Clips: Mit Software gegen extremistische Inhalte
Auch bei Online-Plattform YouTube wurden im Schlussquartal 2017 8,3 Millionen bedenkliche Clips erfolgreich gelöscht. Die Software spielt dabei eine große Rolle für das Unternehmen, denn gut 80 Prozent dieser Videos wurden von Maschinen entdeckt. Rund 6,7 Millionen Videos wurden entfernt, bevor sie auch nur einmal von Menschen angesehen wurden, betonte die Google-Videoplattform in einem Blogeintrag am Dienstag.
Den Fortschritt dabei illustrierte YouTube mit Videos mit extremistischen Inhalten, die weniger als zehn Mal angesehen wurden, bevor es gelang, sie zu löschen: Anfang 2017 lag der Anteil bei acht Prozent, nun ist es mehr als die Hälfte.
Die YouTube-Software greift dabei zum einen auf eine Datenbank mit bereits bekannten Videos zurück, die bei Versuchen, sie erneut hochzuladen, gestoppt werden. Zugleich analysiert sie auch zunehmend selbst Videoinhalte, um problematische Clips ausfindig zu machen und zur Prüfung zu markieren. Die endgültige Entscheidung wird dabei größtenteils von den Google-Mitarbeitern getroffen.
Bei den von Menschen gemeldeten Videos ging es in dem Quartal in 30 Prozent der Fälle um sexuell freizügige Inhalte und 27 Prozent der Meldungen verwiesen auf Clips mit Spam oder falschen Angaben. Terror-Propaganda war der Grund für 491 000 Meldungen - zwei Prozent der menschlichen Hinweise. Deutschland ist auf Platz fünf der Länder mit den meisten Meldungen von Nutzern nach Indien, den USA, Brasilien und Russland. (dpa)
Die Diskussion ist geschlossen.