Ende des Jahres 2016 reagierte der umstrittene Social Media-Gigant auf die Vorwürfe einer Recherche, welche die Arbeitsbedingungen von Mitarbeitern der Firma Avarto thematisierte, die für Facebook Bilder, Videos und Textbeiträge prüft und entscheidet, was gelöscht wird und was nicht.
Doch auf Enthüllungen des SZ-Magazins über die traumatisierenden Arbeitsbedingungen der Lösch-Teams reagierte Facebook – wie gewohnt – mit schwammigen Beschwichtigungen. Juristen sprechen angesichts dieser Situation von einem "angeordneten Rechtsbruch" während der Social Media-Konzern auf einer anderen Baustelle – die sogenannten Fakenews – durch eine Kooperation versucht, aus den Negativschlagzeilen zu kommen.
Multimediale Gewalt, Missbrauch, Folter, jeden Tag aufs Neue in zwei Schichten von 8:30 bis 22 Uhr
Wir konzentrieren uns ganz an dieser Stelle ganz auf die skandalösen Arbeitsbedingungen der Facebook-Lösch-Teams, die natürlich nicht als solche zu bezeichnen sind, denn sie arbeiten ja für einen Subunternehmer: Die Bertelsmann Tochter Avarto. Die folgenden Zeilen sind ein Surrogat des höchst lesenswerten Artikel von Hannes Grassegger und Till Krause, den wir ausdrücklich an deiser Stelle empfehlen.
Zunächst vermuteten Social-Media-Experten, dass die sisyphoshaft anmutenden Säuberungsmaßnahmen, also die Sichtung von gemeldeten Facebook-Beiträgen, um zu entscheiden, ob sie gelöscht werden müssen oder nicht, in Schwellenländern stattfinden würden. So wie die Verwertung des Wohlstandsmülls, giftiger Elektroschrott etwa, in Afrika.
Doch spätestens seit den Enthüllungen des SZ-Magazins (12/2016) ist allen, die es wissen wollen klar, diese Arbeit wird zum Teil auch von multinationalen Teams in Berlin erledigt. Über Monate haben die beiden Autoren Hannes Grassegger und Till Krause mit ehemaligen und noch tätigen Mitarbeitern der Firma Avarto gesprochen, obwohl ihnen vom ihrem Arbeitgeber ausdrücklich untersagt wurde, mit Journalisten zu sprechen.
Cash Cow: 28 Millionen in Deutschland und 1,8 Milliarden Nutzer weltweit wollen nicht verstört werden
Es ist sicher kein Zufall, dass die digitale Müllabfuhr auf junge Menschen setzt, die in Berlin gestrandet sind. Menschen mit Fremdsprachen- und PC-Kenntnissen, denen erzählt wird, sie hätten das große Los gezogen: Sie arbeiten für Facebook. Nur eine Frage im Bewerbungsverfahren machte stutzig: Können Sie verstörende Bilder ertragen?
Ein Screenshot der Künstlerin Isabel Seliger, die für den SZ-Magazin Artikel eine überzeugende Illustration. © Isabel Seliger |
Im Training, so berichten die Arvarto-Facebook-Mitarbeiter, wurden zunächst nicht so schlimme Bilder gezeigt, Penisse in allen Größen und entblößte Nippel. In den Schulungen – oder sollte man nicht besser Indoktrinationsmaßnahmen sagen – erklärten die Trainer den Neulingen, dass sie Facebook sauber halten würden, Dinge entfernen, die Kinder nicht sehen sollen. Sie würden Terror und Hass der Plattform entziehen und so zum Schutz der Gesellschaft beitragen.
Der Job macht euch fertig, schmeißt ihn hin, so schnell ihr könnt, rät einer…
Vierzig Stunden die Woche Folter, Porno, Gewalt, Mord, Missbrauch, Hass und andere, unbeschreibliche Dinge, die für 1500 EUR Bruttto im Monat gesichtet werden müssen. Im Akkord. Man loggt sich ein, steuert eine Warteschlange, wo Tausende gemeldete Beiträge auf Bearbeitung warten. Psychologische Schulung und Betreuung steht zwar in den Verträgen, aber keiner der Interviewten Mitarbeiter berichtete von solchen Maßnahmen. Unser Auftraggeber Facebook hat sich vorbehalten, alle Pressenanfragen zu der Zusammenarbeit mit Avarto selbst zu bearbeiten, so lautete die Antwort auf kritische Fragen der Süddeutschen Zeitung Ende 2016.
Horrorrandom: Tierquälerei, Hakenkreuze, Porno, Leichen
Immer wieder kommt es vor, so berichteten die interviewten Mitarbeiter Hannes Grassegger und Till Krause, dass plötzlich Kollegen aufspringen, rausrennen, weinen. Pro Tag sollten etwa 1000, neutral sogenannte 'Tickets' bearbeitet werden. Das darf bleiben, das darf nicht auf Facebook bleiben. Doch das komplexe und natürlich streng geheime Regelwerk, das bestimmt, was auf der Plattform bleiben darf und was nicht, verändert sich ständig. Was gegen die Gemeinschaftsstandards von Facebook verstößt muss weg, was nicht, darf bleiben.
Ein geheimes Parallelgesetz zur Meinungsfreiheit, geschrieben von einem Konzern, der Milliarden Kunden halten will
Aber wer definiert und kontrolliert diese geheimen Standards? Selbst Vertretern des Bundesjustizministeriums wurde der Zugang zu den Berliner Löschteams verweigert. Dem SZ-Magazin lagen große Teile des Löschkodexes vor. Demzufolge darf etwa ein Abtreibungsvideo nur gelöscht werden, wenn es Nacktaufnahmen enthält. Das Bild eines Gehängten mit dem Kommentar ‘Hängt diesen Hurensohn‘ darf nicht gelöscht werden, denn es handelt dabei um eine erlaubte Befürwortung der Todesstrafe…
Maschinen haben Probleme zwischen Operationsvideos und Hinrichtungen zu unterscheiden. Für Millionen von Menschen ist Facebook die zentrale oder zumindest eine wichtige Nachrichtenquelle, doch da der Konzern nicht als Medienkonzern angesehen wird, weil er keine eigenen Inhalte produziert, muss er sich auch keinen ethischen Standards verpflichten.
Eines Tages werden Computer in der Lage sein, Inhalte zu erkennen, die gegen die Facebook-Richtlinien verstoßen…
Wir wollen nun mit der Aussage eines Mitarbeiters enden und empfehlen ausdrücklich und erneut, den umfangreichen Artikel Hannes Grassegger und Till Krause zu lesen: 'Ich weiß, dass jemand diesen Job machen muss. Aber es sollten Leute sein, die dafür trainiert werden, denen geholfen wird und die man nicht einfach vor die Hunde gehen lässt wie uns.'
Und noch dies: Die beiden Autoren haben am Ende ihrer Interviews die Informanten auch gefragt, ob sie nach diesen Erfahrungen selbst noch Nutzer von Facebook seien. Fast alle bejahten.
Service und Links
- Inside Facbook, der Artikel von Hannes Grassegger und Till Krause, hier
- die Reaktion auf die Enthüllungen des SZ-Magazins, hier
- die Illustration von Isabel Seliger zum SZ-Artikel Inside Facebook findet man auf der Instagram-Seite der Künstlerin, hier
- auch interessant, kunstlich.com über Big Data and Brother: Firmen wissen, was wir denken und machen Politik, hier
- auch interessant, kunstlich.com über Meinungsmache mit Social Bots bei Facebook und Co, hier
HINWEIS: Wie freuen uns sehr über Kommentare, Feedback und Kritik sind uns wichtig, wer einen Kommentar hinterlassen will, kann diese natürlich zu jedem Beitrag tun, einfach unten auf 'Keine Kommentare:' klicken und lostippen...
Keine Kommentare:
Kommentar veröffentlichen