Facebook verstärkt Team für Löschanfragen
Facebook will offenbar bedenkliche Nutzerkommentare schneller und umfangreicher löschen als bisher. Ein Dienstleister wurde jetzt unter Vertrag genommen.
Illegale Inhalte und andere bedenkliche Kommentare will Facebook künftig schneller löschen. Dafür hat das soziale Netz jetzt den Dienstleister CCC (Competence Call Center) beauftragt. Der soll noch in diesem Herbst am Standort Essen für Facebook gekennzeichnete Inhalte löschen.
CCC soll dann das Community Operations Team von Facebook unterstützen. Das Zentrum wird von der internationalen Facebook-Zentrale in Dublin gesteuert. Als “Community Operations Team” werde die neue Einheit sicherstellen, dass einerseits von den Nutzern die Facebook-internen Richtlinien eingehalten und andererseits illegale Inhalte bei Facebook entfernt werden.
Bislang werden bedenkliche und gemeldete Inhalte bislang nur teilweise gelöscht oder mit zeitlicher Verzögerung.
Bislang war dafür hauptsächlich ein Team des Dienstleisters Arvato am Standort Berlin zuständig. Dort kümmern sich laut Facebook inzwischen fast 700 Personen darum, die Inhalte richtlinien- und gesetzeskonform zu gestalten.
Ab Herbst sollen von rund 500 Menschen bei CCC in Essen unterstützt werden. Es geht dabei nicht um eine Ausweitung der Löschtätigkeiten: Die CCC-Mitarbeiter werden laut Facebook “die gleichen Tätigkeiten wie die Mitarbeiter bei Arvato in Berlin ausüben.”
Ulf Herbrechter, Chief Operating Officer von CCC verspricht, dass die neu einzustellenden Mitarbeiter “durch regelmäßigen Austausch und Schulungen, intensive Kurse und weitere Unterstützung … gut auf ihre bevorstehende Aufgabe vorbereitet” werden. Er will damit offenbar im Vorfeld Bedenken ausräumen, die durch Berichte über die hohe psychische Belastung durch die Arbeit in den Löschzentren von Facebook hervorgerufen wurden.
Druck auf Facebook nimmt in Europa zu
Eigenen Angaben zufolge sorgen bei Facebook bereits jetzt 4500 Personen für die Löschung von illegalen oder unangemessenen Inhalten. Rund 3000 sollen noch dazukommen, um die Anforderungen zu erfüllen. Die sind auch dringend notwendig, wächst der Druck auf Facebook doch seit Jahren schon, sich in den Ländern, in denen es aktiv ist, gesetzeskonform zu verhalten. Als eine Reaktion haben Facebook, Twitter, Youtube und Microsoft im Juni gemeinsam das “Global Internet Forum to Counter Terrorism” gegründet. Das Forum soll helfen, extremistische und terroristische Inhalte in Sozialen Medien zu bekämpfen.
In Deutschland nimmt der Druck unter anderem durch das Netzwerkdurchsetzungsgesetz zu. Bereits im Vorfeld hatte sich Facebook heftig gegen den Entwurf dafür zur Wehr gesetzt: “Der Rechtsstaat darf die eigenen Versäumnisse und die Verantwortung nicht auf private Unternehmen abwälzen. Die Verhinderung und Bekämpfung von Hate Speech und Falschmeldungen ist eine öffentliche Aufgabe, der sich der Staat nicht entziehen darf”, schimpfte das Unternehmen.
Bereits im Mai hatte zudem ein Berufungsgericht in Wien entschieden, dass Facebook bestimmte Hass-Postings in Österreich nicht nur sperren, sondern vollständig löschen muss. Nach Auffassung des Gerichts reicht es nicht aus, wenn zu Recht beanstandete Beiträge nur in Österreich unzugänglich gemacht werden. Sie dürfen vielmehr auch aus dem Ausland nicht mehr aufgerufen werden können.
Die Europäische Kommission vereinbarte vor etwas über einem Jahr mit Facebook, Microsoft, Twitter und Youtube einen freiwilligen Maßnahmenkatalog. Er sah unter anderem die Löschung gemeldeter Hasskommentare innerhalb von 24 Stunden vor. Da die Kommission allerdings im Dezember feststellen musste, dass die freiwillige Vereinbarung keine Wirkung zeigte, prüft sie nun, ob neue Gesetze für den Umgang damit erforderlich sind.
[mit Material von Peter Marwan, ZDNet.de]
Tipp: Wie gut kennen Sie Soziale Netzwerke? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.