Blick hinter die Kulissen: So bewertet Facebook den Wunsch nach Löschung von zweifelhaften Inhalten

Vielleicht geht es Euch genauso: Aktuell habe ich das Gefühl, dass die Menge der fremdenfeindlichen und rassistischen Beiträge bei Facebook in dem Maße steigt, wie Flüchtlinge nach Europa kommen. Grund genug, mal beim Deutschland-Ableger der Social-Media-Plattform nachzufragen, wie sie es mit dem Löschen zweifelhafter Inhalte halten.

Gemeinsam mit Alexander Vogt, medienpolitischer Sprecher der SPD-Landtagsfraktion (li.), und seiner Mitarbeiterin Verena Schmidt-Völlmecke (re.) bei Eva-Maria Kirschsieper, bei Facebook in Deutschland verantwortlich für den Bereich Politik.

Gemeinsam mit Alexander Vogt, medienpolitischer Sprecher der SPD-Landtagsfraktion (li.), und seiner Mitarbeiterin Verena Schmidt-Völlmecke (re.) bei Eva-Maria Kirschsieper, bei Facebook in Deutschland verantwortlich für den Bereich Politik.

Die Grundlage allen Facebook-Handelns in diesem Bereich sind die „Community-Standards“. Hier ist ein weltweit gültiges Regelwerk veröffentlicht, auf dessen Basis mehrere hundert Facebook-Mitarbeiter zentral von Dublin aus jeden Tag gemeldete Beiträge bewerten und gegebenenfalls auch löschen. Wohlgemerkt nur gemeldete Beiträge. Eine regelmäßige Überprüfung von Inhalten durch Mensch oder Computer findet nach Angaben von Facebook nicht statt! Somit braucht es also die Meldung von Inhalten durch Nutzer, damit überhaupt etwas geschieht. Ist die Löschung eines Beitrags mehrmals begründet abgelehnt worden, erfolgt irgendwann keine weitere individuelle Prüfung mehr, sondern der Post wird sozusagen auf Grün gestellt.

Wichtig ist nach Angaben von Eva-Maria Kirschsieper, Head of Public Policy bei Facebook in Deutschland, dass bei einer Meldung genau der Grund angegeben wird, der bei dem betreffenden Beitrag kritikwürdig ist. Klickt man bei einem fremdenfeindlichen Beitrag beispielsweise „Kinderpornografie“ als Grund der Beanstandung an, führt das zwar zu einer schnelleren Bearbeitung. Allerdings landet die Löschanfrage bei jeweils spezialisierten Teams, so dass höchstwahrscheinlich nichts passieren würde, weil – um beim Beispiel zu bleiben – eine Prüfung auf Kinderpornografie negativ ausfallen würde, der Beitrag also nicht gelöscht würde.

Und das, obwohl nach Aussage von Kirschsieper keine Computer die Prüfung übernehmen, sondern jeweils Native-Speaker, also in unserem Fall deutschsprachige Mitarbeiter, die aber eben nur nach den ihnen zugeordneten Prüfgründen bewerten. Dabei spielen wie erwähnt die Community-Regeln sowie nationale Gesetze eine Rolle. Im letztgenannten Fall haben Strafverfolgungsbehörden – übrigens genauso wie NGOs – einen direkten Draht zu Facebook, um strafrelevante Inhalte zu melden und löschen zu lassen.

Dass dabei, wie vielfach kritisiert, gewaltverherrlichende Videos unberührt bleiben, aber schon das Bild eines nackten Busens zur Löschung führen kann, liegt nicht an der Prüderie der amerikanischen Mutternation, sondern schlicht am weltweiten Mehrheitsgeschmack, der Anstoß an nackter Haut nimmt und weniger an zum Beispiel Müttern, die ihre Kinder im Video verprügeln.

Dieses – reale – Beispiel nimmt Eva-Maria Kirschsieper um zu erklären, dass man sich zwar an einem solchen Video persönlich stoßen kann. Es würde allerdings nicht gelöscht, so lange die Kommentierung das Verhalten der Frau eindeutig kritisiert. Außerdem führten solche unzensierten Videos oftmals dazu, dass Behörden die Täter ausfindig machen und bestrafen konnten.

Zuletzt gilt die Zusage von Facebook, dass alle Löschgesuche auch von Menschen wie oben dargestellt bearbeitet würden – inklusive einem Feedback, in dem auch erklärt würde, warum eine Löschung mal nicht erfolgt. Den Eindruck, dass derzeit mehr Hass-Beiträge und zweifelhafte Inhalte bei Facebook auftauchen, kann Kirschsieper übrigens nicht bestätigen. Nach den ihr vorliegenden Daten ist die Zahl der Meldungen in den vergangenen Wochen nicht signifikant gestiegen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.