Facebook löscht zahlreiche IS-Terror-Beiträge
24. April 2018Im ersten Quartal 2018 hat das weltgrößte Online-Netzwerk insgesamt 1,9 Millionen Beiträge mit Bezug zu den Terrororganisationen "Islamischer Staat" (IS) und Al-Kaida entfernt oder mit Warnhinweisen versehen. Das seien doppelt so viele wie im Vorquartal, teilten die Facebook-Manager Monika Bickert und Brian Fishman mit. Ermöglicht werde die verstärkte "Terrorabwehr im Internet" durch verbesserte Software zur automatischen Erkennung solcher Inhalte und durch die Aufstockung ein auf Terror-Inhalte spezialisiertes Team. Laut den Managern ist die Gruppe seit Juni vergangenen Jahres von 150 auf 200 Mitarbeiter gewachsen, weitere sollen hinzukommen.
Weniger als eine Minute im Netz
Im Durchschnitt seien solche extremistischen Beiträge für weniger als eine Minute auf der Plattform verfügbar. Wegen Verstößen gegen die Richtlinien würden einzelne Beiträge, aber auch komplette Profile und Gruppen entfernt, erläuterten Bickert und Fishman weiter. Sie betonten, Facebook wolle seine politische und weltanschauliche Neutralität wahren.
Zugleich veröffentlichte der Online-Dienst seine Definition von Terrorismus: "Jede Nichtregierungsorganisation, die vorsätzliche Gewalttaten gegen Personen oder Eigentum begeht, um eine zivile Bevölkerung, Regierung oder internationale Organisation einzuschüchtern, um ein politisches, religiöses oder ideologisches Ziel zu erreichen." Regierungen hingegen dürften nach rechtlichem Verständnis unter bestimmten Umständen rechtmäßig Gewalt anwenden.
Anfang März hatte die Europäische Kommission neue Richtlinien zur Entfernung terroristischer und anderer illegaler Inhalte auf Facebook und weiteren Online-Plattformen erlassen, um den Druck auf die Anbieter zu erhöhen. Vor drei Wochen teilte bereits der Kurzbotschaftendienst Twitter mit, eine Million Beiträge wegen "Förderung des Terrorismus" gelöscht zu haben.
Widerspruchsrecht bei gelöschten Beiträgen
Facebook will künftig seinen Nutzern erstmals aber auch die Möglichkeit geben, der Löschung der Beiträge durch das Online-Netzwerk zu widersprechen. Die Funktion soll bis Jahresende weltweit für Löschgründe wie Nacktheit, Hassbotschaften und Gewaltdarstellung eingeführt werden. Weitere Kategorien sollen folgen. Die Beschwerden würden dabei typischerweise binnen 24 Stunden geprüft.
se/as (afp, dpa)