„Für uns sind die Sozialen Medien ein unsicherer Ort“

Content Moderatoren filtern gewalttätige Posts, Bilder, Videos und Chats aus den Sozialen Medien. Sie machen die Plattformen sicher, aber arbeiten selbst unter unsicheren Bedingungen. Jetzt begehren sie auf
© Foto: DPA Bildfunk
Voll im Unternehmen aufgehen, aber bitte nicht mitbestimmen wollen – beim Onlinespiele-Produzent Goodgame Studios will man keinen Betriebsrat
01.06.2023

Am 9. und 10. März hatte ver.di zu einem Treffen von sogenannten Content Moderatoren eingeladen. Rund 50 von ihnen, die 24 Stunden sieben Tage die Woche sämtliche Inhalte auf den verschiedenen Social-Media-Plattformen kontrollieren und gegebenenfalls löschen, wenn sie die Grenzen des Erlaubten überschreiten, waren aus ganz Deutschland nach Berlin gekommen. Sie arbeiten für TikTok, Facebook, Twitter und Co. Im Englischen werden sie auch „Cleaner“ genannt, Reinigungskräfte, die den Dreck aus dem Internet fegen. Und so prekär oftmals die Situation von Reinigungskräften ist, sind auch die Arbeitsbedingungen der Content Moderatoren in mehrfacher Hinsicht mehr als problematisch: Sie arbeiten im Verborgenen, dürfen über ihre Arbeit nicht sprechen, werden psychologisch kaum unterstützt, obwohl sie täglich zehntausende Posts, Bilder und Videos voll Gewalt und Hass ansehen und löschen müssen. Und sie werden schlecht bezahlt.

Menschliche Filter

Daran wollen die Content Moderatoren jetzt etwas ändern. In Berlin haben sie sich auf drei grundsätzliche Forderungen verständigt: Sie fordern gleiche Bezahlung, denn viele von ihnen arbeiten für Subunternehmen der großen Plattformen zu deutlich schlechteren Bedingungen. Sie fordern das Recht, sich gewerkschaftlich zu organisieren und Betriebsräte zu gründen. Bei TikTok konnten die Beschäftigten im vergangenen Jahr mit Unterstützung von ver.di bereits einen Betriebsrat gründen. Und vor allem fordern sie einen regulären Gesundheitsschutz für ihre Psyche. Hikmat El-Hammouri, ver.di-Gewerkschaftssekretär und Mitorganisator dieses ersten Treffens von Content Moderatoren in Deutschland betont: „Content Moderatoren sind ein menschlicher Filter für das Grausamste, was es gibt.“

 
Im Akkord sichten und löschen – die Arbeit von Content Moderatoren ist belastend

2018 war es einem Team des Westdeutschen Rundfunks gelungen, erstmals Content Moderatoren in Manila auf den Philippinen vor die Kamera zu bekommen. Dort säubern zehntausende Content Moderatoren tagtäglich bis zu 12 Stunden das Netz von Vergewaltigungsbildern, Enthauptungsvideos, Selbstverletzungen, Rassismus, Kindesmissbrauch, verstörenden Kriegsbildern, Pornographie, kurzum von allem, was sonst nur in illegalen Dark Rooms im weltweiten Netz zu finden ist. Dem WDR-Team schrieben die philippinischen Content Moderatoren in einem gemeinsamen Chat, dass sie irgendwann das Gefühl bekamen, Gewalt ist normal und keine Ausnahme. 2019 haben wir in der ver.di publik über das erste Facebook-Löschzentrum in Berlin berichtet, dass seinerzeit zunächst von Arvato und schließlich bis heute von Majorel betrieben wird. Der Content Moderator, mit dem wir damals sprachen, schilderte die gleichen Probleme wie die Kolleg*innen in Manila.

Alle verändert diese Arbeit, belastet sie, bis sie auf die Bremse treten und aussteigen. Einer der Content Moderatoren in der WDR-Dokumentation sagt, er habe in einer Schicht 25.000 Inhalte sichten müssen. An die meisten Bilder könne er sich nicht mehr erinnern, doch einige Videos hätten sich in seine Seele gefressen. Unter anderem ein Life-Video von einem Selbstmord, dass er erst stoppen durfte – weil es hätte ja auch nur ein Witz sein können, jemand, der sich einen Spaß erlaubt und es nicht ernst meint –, als der Selbstmörder baumelnd am Strick um sein Leben kämpfte.

4,6 Milliarden aktive Social-Media-Nutzer*innen

Ali, einer der Content Moderatoren, der zur ver.di-Veranstaltung gekommen und dessen Name hier zu seinem Schutz geändert ist, löscht seit vier Jahren für eine der großen Social-Media-Plattformen Inhalte. Ali ist aus Afghanistan nach Deutschland gekommen und war auch wegen seiner Sprachkenntnisse gefragt. Über die Bildschirme der Content Moderatoren flimmern Bilder aus der ganzen Welt und in nahezu allen Sprachen der Erde. Laut Zahlen des Statistischen Bundesamtes vom November 2022 nutzen derzeit 4,6 Milliarden, also über die Hälfte der Weltbevölkerung, aktiv die Sozialen Medien.

Mit knapp 67 Prozent ist nach wie vor Facebook die am meisten genutzte Plattform, Nigeria ist das Land mit der höchsten täglichen Nutzungsdauer. Seit der Machtübernahme der Taliban in Afghanistan sind für viele Afghaninnen und Afghanen ihre Social-Media-Accounts zu einer großen Gefahr geworden. Die Taliban haben zum einen ihre Machtübernahme in den Sozialen Medien vorbereitet, seit sie das Heft wieder in der Hand haben, durchsuchen sie die Plattformen jetzt vornehmlich nach Regimegegner*innen.

Seit Ali das Netz von Gewaltbildern befreit, ist ihm auch seine Vergangenheit in Afghanistan nahezu täglich in seinen Träumen wieder präsent. Jahrelang hat er für seinen Arbeitgeber Bilder von Selbstverletzungen gelöscht, bei ihm haben sie Bilder von der Gewalt in seiner Heimat wachgerufen. Ali sagt: „Wir machen die Plattformen zu einem sicheren Ort, aber für uns sind es keine sicheren Orte. Sehr viele Inhalte bedrohen unsere psychische Gesundheit.“ Er habe das Gefühl, jeden Tag aufs Neue einen Test bestehen zu müssen. Fehler könne man sich nicht leisten, der Druck der Teamleitungen sei groß. Eine Trauma-Spezialistin habe er bereits aufgesucht, aber nur zweimal. Eine Therapie? Nein, die mache er nicht.

 

„Unser Job ist wichtig und hart, aber auf uns wird herabgeblickt.“

Rose, Content Moderatorin

Rose, ebenfalls Content Moderatorin und beim Berliner Treffen dabei gewesen, sagt: „Unser Job ist wichtig und hart, aber auf uns wird herabgeblickt.“ Weder würden sie so behandelt noch so bezahlt, wie sie es verdient hätten.

Wertschätzung ist das Wort, das in Berlin vielfach gefallen ist. Die Social-Media-Plattformen haben frühzeitig ihre Content Moderatoren outgesourct bei Billigfirmen, die schlecht bezahlen und so gut wie keinen Gesundheitsschutz bieten. Als Elon Musk im November 2022 bei seiner Kündigungswelle auch massenhaft Content Moderatoren entließ, waren Fachleute alarmiert, sie befürchteten einen rapiden Anstieg von Hass und Hetze auf Twitter. Auch die Twitter-Content-Moderatoren arbeiteten überwiegend als Leiharbeiter*innen, also zu deutlich schlechteren Bedingungen als die fest angestellten Twitter-Beschäftigten. Im Januar 2023 wurden weitere von ihnen gekündigt. Das Berliner Treffen von Content Moderatoren ist ein Anfang, um die Social-Media-Plattformen, aber vor allem die Arbeitsbedingungen ihrer Moderatoren besser und sicherer zu machen.

Algorithmen kommen gegen Gewalt im Netz nicht an

Nicht zuletzt deshalb haben das Treffen an einem sicheren Ort auch drei von Frauen gegründete zivilgesellschaftliche Organisationen mit organisiert, die sich für bessere Arbeitsbedingungen in der Tech-Branche einsetzen: Superrr Lab aus Berlin, Foxglove aus London und das DAIR Institute, das unabhängig weltweit Untersuchungen zum Einsatz Künstlicher Intelligenz (KI) betreibt. Das KI bereits zum Einsatz kommt, bestätigen die Content Moderatoren. „Doch“, sagt Ali, „ohne uns kommt kein Algorithmus gegen die Gewalt im Netz an.“

Die WDR-Dokumentation kann auf der Seite der Bundeszentrale für politische Bildung angesehen werden:
Im Schatten der Netzwelt - The Cleaners - die dunklen Seiten des Internets