Etats-Unis
Meta a annoncé mardi qu'il commencerait à cacher les contenus inappropriés des comptes d'adolescents sur Instagram et Facebook, y compris les messages sur le suicide, l'automutilation et les troubles de l'alimentation.
Le géant des médias sociaux basé à Menlo Park, en Californie, a déclaré dans un billet de blog que, bien qu'il ait déjà pour objectif de ne pas recommander ce type de contenu "inapproprié pour l'âge" aux adolescents, il ne l'affichera désormais plus dans leur fil d'actualité, même s'il est partagé par un compte qu'ils suivent.
"Nous voulons que les adolescents vivent des expériences sûres et adaptées à leur âge sur nos applications", a déclaré Meta.
Les utilisateurs adolescents - à condition qu'ils n'aient pas menti sur leur âge lorsqu'ils se sont inscrits sur Instagram ou Facebook - verront également leurs comptes placés sur les paramètres les plus restrictifs des plateformes, et il leur sera interdit de rechercher des termes susceptibles d'être nuisibles.
"Prenons l'exemple d'une personne qui publie des informations sur son combat permanent contre l'automutilation. C'est une histoire importante, qui peut aider à déstigmatiser ces questions, mais c'est un sujet complexe qui ne convient pas nécessairement à tous les jeunes", a déclaré Meta. "Maintenant, nous allons commencer à supprimer ce type de contenu des expériences des adolescents sur Instagram et Facebook, ainsi que d'autres types de contenus inappropriés pour l'âge."
L'annonce de Meta intervient alors que l'entreprise est poursuivie par des dizaines d'États américains qui l'accusent de nuire aux jeunes et de contribuer à la crise de la santé mentale des jeunes en concevant sciemment et délibérément des fonctionnalités sur Instagram et Facebook qui rendent les enfants accros à ses plateformes.
Les critiques ont déclaré que les mesures prises par Meta n'allaient pas assez loin.
"L'annonce faite aujourd'hui par Meta est une nouvelle tentative désespérée d'éviter la réglementation et une incroyable gifle pour les parents qui ont perdu leurs enfants à cause de préjudices en ligne sur Instagram", a déclaré Josh Golin, directeur général du groupe de défense des enfants en ligne Fairplay. "Si l'entreprise est capable de cacher des contenus pro-suicide et sur les troubles alimentaires, pourquoi a-t-elle attendu 2024 pour annoncer ces changements ?"
01:00
Maurice : le Premier ministre ordonne de bloquer les réseaux sociaux
11:07
Sommet des BRICS : quelles opportunités pour l'Afrique ? [Business Africa]
Aller à la video
Nigeria : Meta s'inquiète de la présence en ligne d'une vidéo anti-LGBT
Aller à la video
FIFAfrica 2024 : pour la liberté et la démocratisation de l’Internet
02:28
Ouganda : "Hello Hub" réduit l'écart numérique dans les zones rurales
02:24
Kenya : la réalité virtuelle se rapproche des communautés rurales