Het Keniaanse outsourcingbedrijf Sama zei op 10 januari dat het in maart niet langer inhoudsbeheersdiensten zou leveren aan de eigenaar van Facebook, WhatsApp en Instagram, omdat het zich wil concentreren op het labelen van gegevens.

Sama zei dat het 3% van zijn personeel zou ontslaan - ongeveer 200 werknemers - om zijn activiteiten te stroomlijnen en de efficiëntie te verhogen. Het bedrijf blijft gegevenslabelingdiensten leveren aan Meta.

De aankondiging komt op een moment dat zowel Sama als Meta geconfronteerd worden met een rechtszaak over vermeende arbeidsmishandeling en het verhinderen van vakbondsvorming in Kenia. Een andere rechtszaak beschuldigt Meta ervan gewelddadige berichten op Facebook te hebben toegestaan, waardoor het burgerconflict in buurland Ethiopië zou zijn aangewakkerd. Beide bedrijven hebben hun staat van dienst verdedigd.

Voorvechters van digitale rechten zeiden dat de inspanningen van Meta om schadelijke inhoud in Afrikaanse landen te beteugelen jammerlijk ontoereikend waren in vergelijking met rijkere landen, en riepen het bedrijf op om zijn moderatieprocessen drastisch te verbeteren.

"Met het vertrek van Sama zou dit een goede kans zijn voor Meta om de zaken recht te zetten en te zorgen voor betere arbeidsomstandigheden voor Afrikaanse moderatoren in de regio," zei Bridget Andere, beleidsanalist voor Afrika bij Access Now.

"Meta zou het aantal moderatoren voor de regio moeten verhogen om de lokale talen en dialecten voldoende te dekken, en zou ook transparanter moeten zijn over hun algoritmes die schadelijke inhoud promoten," vertelde ze aan de Thomson Reuters Foundation.

Meta gaf geen details over of het een nieuwe externe contractant voor Oost-Afrika had gevonden, maar zei dat de terugtrekking van Sama geen nadelige gevolgen zou hebben voor gebruikers op haar sociale mediaplatforms.

"We respecteren de beslissing van Sama om te stoppen met de contentbeoordelingsdiensten die het levert aan sociale mediaplatforms," zei een woordvoerder van Meta.

"We zullen tijdens deze overgang samenwerken met onze partners om ervoor te zorgen dat er geen gevolgen zijn voor ons vermogen om inhoud te beoordelen."

JURIDISCHE UITDAGINGEN

De juridische uitdagingen van Meta in Oost-Afrika begonnen in mei vorig jaar nadat voormalig moderator Daniel Motaung een rechtszaak had aangespannen over de slechte werkomstandigheden in Kenia.

De petitie, die ook tegen Sama was ingediend, beweert dat werknemers die Facebook-posts modereren te maken hadden met onregelmatige betaling, onvoldoende ondersteuning op het gebied van geestelijke gezondheid, anti-vakbondsactiviteiten en schendingen van hun privacy en waardigheid.

Sama ontkent de beschuldigingen, terwijl Meta zei dat het van "zijn partners eist dat ze werknemers toonaangevende salarissen, voordelen en ondersteuning bieden".

Een rechter zal naar verwachting op 6 februari beslissen of een Keniaanse rechtbank de klacht kan behandelen.

Vorige maand werd Meta geconfronteerd met een andere rechtszaak die het bedrijf ervan beschuldigt gewelddadige berichten op Facebook te hebben laten verschijnen, waardoor de burgeroorlog in Ethiopië werd aangewakkerd.

De rechtszaak, die werd aangespannen door twee Ethiopische onderzoekers en de Keniaanse rechtengroep Katiba Institute, beweert dat de aanbevelingssystemen van Facebook haatdragende en gewelddadige berichten in Ethiopië hebben versterkt, waaronder verschillende berichten die voorafgingen aan de moord op de vader van een van de onderzoekers.

De aanklagers eisen dat Meta noodmaatregelen neemt om gewelddadige inhoud te verwijderen, meer moderatiemedewerkers aanwerft in Nairobi en restitutiefondsen van ongeveer $2 miljard creëert voor wereldwijde slachtoffers van geweld dat op Facebook is uitgelokt.

Meta zei dat het strikte regels heeft die bepalen wat wel en niet is toegestaan op Facebook en Instagram.

"Haatdragende taal en aanzetten tot geweld zijn tegen deze regels en we investeren veel in teams en technologie om ons te helpen deze inhoud te vinden en te verwijderen," zei de woordvoerder van Meta.

"Ons werk op het gebied van veiligheid en integriteit in Ethiopië wordt geleid door feedback van lokale maatschappelijke organisaties en internationale instellingen."

EINDE UITBESTEDING, BEOORDELINGSALGORITMEN

Wereldwijd beoordelen duizenden moderatoren berichten op sociale media die geweld, naaktheid, racisme of andere aanstootgevende inhoud kunnen bevatten. Velen werken voor externe aannemers in plaats van rechtstreeks voor techbedrijven.

Meta heeft in het verleden te maken gehad met een kritisch onderzoek naar de arbeidsomstandigheden van inhoudsbeheerders en kritiek op haar acties om haatzaaiende en gewelddadige inhoud tegen te houden.

In juli 2021 keurde een rechter in Californië een schikking van $85 miljoen goed tussen Facebook en meer dan 10.000 moderatoren die het bedrijf ervan beschuldigden hen niet te hebben beschermd tegen psychologische verwondingen als gevolg van hun blootstelling aan grafische en gewelddadige beelden.

In datzelfde jaar spanden Rohingya-vluchtelingen uit Myanmar een rechtszaak aan tegen Meta voor een bedrag van $150 miljard vanwege beschuldigingen dat het bedrijf geen actie ondernam tegen haatzaaiende anti-Rohingya uitingen die bijdroegen aan geweld tegen de minderheidsgroep.

Rechtengroeperingen zeggen dat moderatieprocessen specifieke culturele en maatschappelijke contexten niet begrijpen en geen kennis hebben van lokale talen en dialecten, waardoor problematische inhoud zich snel kan verspreiden en versterkt kan worden met ernstige gevolgen.

Cori Crider, directeur van Foxglove - een in Londen gevestigde pleitbezorger van technische rechtvaardigheid die beide rechtszaken in Kenia steunt - riep Meta op om een einde te maken aan de uitbestedingspraktijken en de "armzalige" middelen die het bedrijf inzet voor veiligheid in Afrika te verhogen.

"Facebook zou de moderatie intern moeten uitvoeren, alle 260 inhoudsmoderatoren in Nairobi die belangrijk veiligheidswerk doen in dienst moeten nemen en deze mensen moeten waarderen met fatsoenlijke lonen, volledige klinische geestelijke gezondheidszorg en waardigheid en aanzien," zei Crider.

"Outsourcing is kapot en zowel arbeiders als gewone mensen hebben de prijs betaald."

Alia Al Ghussain, onderzoeker op het gebied van AI en mensenrechten bij Amnesty International, zei dat de algoritmen van Facebook - die de nieuwsfeeds, ranglijsten, aanbevelingen en groepsfuncties aandrijven en vormgeven wat gebruikers op het platform zien - ook kritisch bekeken moeten worden.

"Meta's op engagement gebaseerde bedrijfsmodel betekent dat algoritmes geprogrammeerd zijn om schadelijke en opruiende inhoud viraal te laten gaan," zei Al Ghussain, wiens organisatie de rechtszaak over Ethiopië steunt.

"De rechtszaken die we zowel in de Ethiopië-zaak als in de Myanmar-zaak zien, tonen duidelijk aan dat het probleem systemisch is en dringend aangepakt moet worden door middel van regelgeving."

Oorspronkelijk gepubliceerd op: