Condamné fin mai en Europe sur la protection des données, le groupe Meta est attaqué sur un autre front au Kenya : le travail des modérateurs de contenus, employés de l'ombre chargés de retirer de Facebook les publications violentes et haineuses.
Kenya : des modérateurs de contenus poursuivent Meta
Trois plaintes
Au Kenya, trois plaintes visent Meta et la société californienne Sama, à qui le groupe propriétaire de Facebook, WhatsApp et Instagram a sous-traité la modération des contenus de son réseau social pour l'Afrique subsaharienne entre 2019 et 2023.
Deux ont été déposées par des modérateurs de contenus employés par Sama à Nairobi. Leur travail était de visionnner et retirer de Facebook les publications violentes, appelant à la haine ou propageant la désinformation.
Sollicitées par l'AFP, ni Sama ni Meta n'ont souhaité commenter les affaires en cours.
Une première plainte a été déposée en mai 2022 au Tribunal de l'emploi et des relations au travail par un Sud-Africain, Daniel Motaung.
Il dénonce des conditions de travail "inhumaines", des méthodes d'embauches trompeuses, des rémunérations irrégulières et insuffisantes ainsi que le manque de soutien psychologique face aux traumatismes causés par cette activité. Il affirme également avoir été licencié après avoir voulu former un syndicat.
L'affaire n'est pas encore jugée.
En mars, une deuxième plainte a été déposée par 184 autres employés affirmant avoir été indûment licenciés par Sama, qui a annoncé cesser son activité dans la modération de contenus. Ils demandent une compensation pour leurs salaires "insuffisants (pour) le risque auquel ils étaient exposés" et les "dommages causés à leur santé mentale".
Dans l'attente d'un jugement sur le fond, ces licenciements ont été suspendus le 2 juin par le Tribunal de l'emploi, qui a ordonné à Meta et Sama de "fournir des soins psychologiques et médicaux appropriés aux plaignants".
Meta et Sama ont annoncé leur intention de faire appel.
Une autre plainte, en décembre 2022, les accuse d'inaction face aux discours de haine, ce qui aurait abouti, selon les plaignants, au meurtre en 2021 d'un professeur d'université en Ethiopie.
L'AFP est un partenaire de Meta, fournissant des services de vérification des faits en Asie-Pacifique, en Europe, au Moyen-Orient, en Amérique latine et en Afrique.
- Responsabilité de Meta -
Ces affaires sont les plus importantes sur le thème de la modération de contenus depuis une action de groupe lancée en 2018 aux Etats-Unis. En mai 2020, Facebook avait accepté de payer 52 millions de dollars à des modérateurs en guise de compensation pour les effets de leur travail sur leur santé mentale.
Les plaintes déposées à Nairobi visent à dénoncer un système de sous-traitance qui, selon ses détracteurs, est utilisé par Meta pour tenter d'échapper à sa responsabilité.
Comme avec Sama à Nairobi, Meta externalise la modération de contenus sur Facebook à des sociétés qui opèrent dans plus de 20 sites à travers le monde et traitent plus de deux millions d'éléments quotidiennement, selon des données fournies par le groupe à l'AFP.
Ses avocats ont fait valoir que le groupe ne pouvait être jugé au Kenya où il n'a lui-même aucune activité et où il n'est pas employeur direct.
Mais dans son jugement du 2 juin, la justice a estimé que Meta était "propriétaire du travail numérique et de l'espace de travail numérique".
"Côté obscur"
"Ces affaires lèvent le voile sur les véritables chambres noires de la modération de contenus", souligne Brandie Nonnecke, directrice du Centre pour le Droit et la Technologie à l'université de Berkeley.
"Le grand public ne réalise pas à quel point des contenus peuvent être dangereux et horribles et quel est le coût humain de la modération", estime-t-elle.
Pour Cori Crider, directrice de l'association britannique Foxglove qui soutient les plaintes au Kenya, "l'objectif principal dans ces affaires est de changer la façon dont le travail est effectué".
L'affaire du meurtre en Ethiopie et celles sur les conditions de travail sont "les deux faces d'une même pièce", affirme-t-elle, car des conditions de travail dégradées conduisent à une mauvaise modération qui peut avoir des conséquences mortelles.
Au-delà de Meta, ces affaires révèlent "le côté obscur des réseaux sociaux en général", souligne-t-elle.
Pour Brandie Nonnecke, elles sont "le symptôme" d'un problème plus profond. "Les plateformes (de réseaux sociaux) ont construit des systèmes qui sont une poudrière pour que les contenus nuisibles partagés deviennent viraux. Et elles ne sont quasiment pas tenues pour responsables", estime-t-elle.
Selon elle, "il faut les forcer à concevoir leurs plateformes d'une manière qui n'incite pas à la publication et au partage de contenus nuisibles. Cela pourrait enrayer à la source la publication de contenus nuisibles".