Le conseil de surveillance de Meta a exprimé mardi sa vive inquiétude quant au fait que la société n'a pas retiré une vidéo graphique virale montrant deux hommes en sang après avoir été apparemment battus parce qu'ils étaient prétendument homosexuels.
Nigeria : Meta s'inquiète de la présence en ligne d'une vidéo anti-LGBT
La vidéo a été publiée au Nigeria, l'un des plus de 30 des 54 pays d'Afrique où l'homosexualité est criminalisée par des lois qui bénéficient d'un large soutien de l'opinion publique en dépit des garanties constitutionnelles en matière de libertés. Ces lois sont souvent utilisées pour cibler et arrêter illégalement des personnes soupçonnées d'être homosexuelles, les abus commis à leur encontre étant souvent ignorés.
Le rapport indique que les dommages causés par la vidéo, qui a été visionnée plus de 3,6 millions de fois entre décembre 2023 et février de cette année, sont "immédiats et impossibles à réparer".
Le conseil a déclaré que le contenu "partageait et se moquait de la violence et de la discrimination" et que, bien qu'il ait été signalé plusieurs fois et examiné par trois modérateurs humains, il est resté sur Facebook pendant environ cinq mois, bien qu'il ait enfreint quatre règles différentes.
"La vidéo étant restée en ligne, les chances que quelqu'un identifie les hommes et que le message encourage les utilisateurs à s'en prendre à d'autres personnes LGBTQIA+ au Nigéria ont augmenté", a déclaré le jury. "Même après le retrait de la vidéo, les recherches de la Commission montrent qu'il restait des séquences de la même vidéo sur Facebook."
Dans cette vidéo, on voit deux hommes saigner alors qu'une foule de personnes les interroge sur leur identité et leur orientation sexuelle.
La société a admis deux erreurs concernant ladite vidéo, a déclaré le panel, dans la mesure où ses systèmes automatisés ont identifié la langue parlée dans la vidéo comme étant l'anglais alors qu'il s'agit de la langue Igbo parlée dans le sud-est du Nigeria "mais non prise en charge par Meta pour la modération de contenu à l'échelle", et que les équipes de révision humaine de Meta ont également mal identifié la langue comme étant le swahili.
"Cela soulève des questions sur la manière dont le contenu dans les langues non prises en charge est traité, sur le choix des langues que l'entreprise prend en charge pour la révision à grande échelle et sur l'exactitude des traductions fournies aux réviseurs travaillant dans plusieurs langues", a déclaré le comité.
Dans son rapport, le comité a recommandé à Meta de mettre à jour sa norme communautaire Coordinating Harm and Promoting Crime afin d'inclure des exemples clairs de "groupes à risque", de procéder à une évaluation de l'exactitude de l'application de l'interdiction d'exposer l'identité ou la localisation de personnes supposées appartenir à de tels groupes, de veiller à ce que les systèmes de détection linguistique identifient les contenus dans des langues non prises en charge et de fournir des traductions exactes lors de l'acheminement des contenus à des fins d'examen.