Nach diesen Regeln werden auf Facebook Beiträge gelöscht
Was dürfen Nutzer auf Facebook posten und was nicht? Welche Inhalte gelöscht werden, war lange unklar. Jetzt sind erstmals Dokumente zu den internen Löschregeln geleakt worden.
Wenn ein Nutzer auf Facebook schreibt "Lasst uns fette Kinder verprügeln", dann geht das in Ordnung. Ebenso "Um der Schlampe das Genick zu brechen, musst du möglichst viel Druck auf die Mitte ihrer Kehle ausüben". Aber wehe dem, der postet "Jemand sollte Trump erschießen". Dieser Kommentar wird schnellstmöglich gelöscht.
Nach welchen Regeln Facebook Inhalte löscht, galt lange Zeit als großes Geheimnis. Bis jetzt. Der britischen Zeitung The Guardian wurden mehr als 100 interne und als geheim geltende Dokumente zugespielt, die einen Einblick in die Löschregeln des weltgrößten sozialen Netzwerks geben. Auszüge daraus veröffentlichte das Medienhaus online.
In den Dokumenten geht es um den Umgang mit Hasskommentaren und Mobbing, Gewaltaufrufen, rassistischen, terroristischen und pornografischen Inhalten. Sogar zu Inhalten, die sich um Spielmanipulation im Sport oder Kannibalismus drehen, gibt es eigene Richtlinien.
Schon länger steht Facebook wegen Löschungen in der Kritik
1,3 Millionen Posts werden laut The Guardian pro Minute auf Facebook abgesetzt. Schon seit geraumer Zeit steht Facebook deswegen unter Druck. Die Löschung von beleidigenden oder illegalen Inhalten wird oft als unzureichend kritisiert. Die nun veröffentlichten Dokumente zeigen, dass sich der Konzern zumindest bemüht, das Problem in den Griff zu bekommen.
Das ist aber gar nicht so einfach. Einerseits muss das soziale Netzwerk mit rund zwei Milliarden Nutzern dafür sorgen, dass Hass, illegale Inhalte und Gewaltaufrufe umgehend entfernt werden, sagen die einen Kritiker. Andere kritisieren, dass Unternehmen würde Zensur üben und die Meinungsfreiheit durch Löschungen einschränken.
Welche Inhalte werden gelöscht, welche dürfen stehen bleiben? Ein Überblick:
Facebook-Mitarbeiter fühlen sich überfordert
Die Löschregeln sollen den Mitarbeitern helfen, illegale von akzeptablen Inhalten zu unterscheiden. In der Theorie mag das funktionieren, die Praxis sieht anders aus. Die Moderatoren seien von der Menge der Arbeit überwältigt, zitiert The Gaurdian eine Quelle. Oft hätten sie nur zehn Sekunden Zeit um zu entscheiden, ob ein Inhalt gelöscht werden muss oder nicht.
Dabei muss oft auch der Kontext in Betracht gezogen werden, um zu verstehen, wie ein Kommentar gemeint ist. Dabei geht es nicht nur darum, wann Menschen scherzen und wann sie etwas ernst meinen. Auch die Frage, wann Fotos von Kindesmisshandlungen oder Tierquälerei aufklären wollen und wann sie aus sadistischer Intention heraus veröffentlicht werden, muss geklärt werden. Ob das immer innerhalb weniger Sekunden möglich ist, ist fraglich.
Auch wegen falscher Löschungen wurde Facebook schon kritisiert
Doch nicht nur wegen Inhalten wie Hasskommentaren oder Gewaltaufrufen, die Facebook nicht löscht, steht das soziale Netzwerk in der Kritik. Im vergangenen Jahr erbosten sich zahlreiche Nutzer über die Löschung eines historischen Fotos: Darauf zu sehen ist das nackte Mädchen Kim Phuc, das in Vietnam vor einem Napalm-Angriff flieht. Nach harscher Kritik ging das Foto wieder online.
Facebook scheint daraus gelernt zu haben, wie die nun geleakten Dokumente zeigen: Obwohl Fotos nackter Menschen verboten sind, bleiben historische Aufnahmen aus Konzentrationslagern erlaubt, auf denen entblößte Opfer zu sehen sind.
Lesen Sie auch:
Mordvideo auf Facebook gezeigt: Amerika jagt den Verdächtigen
Streit um Kriegsfoto: Facebook stellt Bild aus dem Vietnamkrieg wieder online
Die Diskussion ist geschlossen.