Intelligence artificielle
Les utilisateurs de Facebook et d'Instagram commenceront à voir des étiquettes sur les images générées par l'intelligence artificielle qui apparaissent sur leurs fils de médias sociaux, dans le cadre d'une initiative plus large de l'industrie technologique visant à faire le tri entre ce qui est réel et ce qui ne l'est pas.
Meta a déclaré mardi qu'elle travaillait avec des partenaires de l'industrie sur des normes techniques qui faciliteront l'identification des images et, à terme, des vidéos et des sons générés par des outils d'intelligence artificielle.
Reste à savoir dans quelle mesure cette initiative fonctionnera à une époque où il est plus facile que jamais de produire et de distribuer des images générées par l'intelligence artificielle qui peuvent causer du tort, qu'il s'agisse de désinformation électorale ou de faux nus non consensuels de célébrités.
"C'est en quelque sorte un signal qu'ils prennent au sérieux le fait que la génération de faux contenus en ligne est un problème pour leurs plateformes", a déclaré Gili Vidan, professeur adjoint en sciences de l'information à l'université de Cornell. Il pourrait être "assez efficace" pour signaler une grande partie des contenus générés par l'IA à l'aide d'outils commerciaux, mais il est peu probable que tout soit détecté, a-t-elle ajouté.
Nick Clegg, président des affaires internationales de Meta, n'a pas précisé mardi quand les étiquettes apparaîtraient, mais il a indiqué que ce serait "dans les mois à venir" et dans différentes langues, notant qu'un "certain nombre d'élections importantes ont lieu dans le monde entier".
"Alors que la différence entre le contenu humain et le contenu synthétique s'estompe, les gens veulent savoir où se situe la limite", a-t-il déclaré dans un billet de blog.
Meta appose déjà la mention "Imaginé avec l'IA" sur les images photoréalistes créées par son propre outil, mais la plupart des contenus générés par l'IA qui inondent ses services de médias sociaux proviennent d'ailleurs.
Un certain nombre de collaborations de l'industrie technologique, notamment l'initiative pour l'authenticité du contenu (Content Authenticity Initiative) dirigée par Adobe, se sont efforcées de définir des normes. Un décret signé en octobre par le président américain Joe Biden préconise l'utilisation de filigranes numériques et l'étiquetage des contenus générés par l'IA.
M. Clegg a déclaré que Meta s'efforcera d'étiqueter "les images de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock au fur et à mesure de la mise en œuvre de leurs projets d'ajout de métadonnées aux images créées par leurs outils".
Google a déclaré l'année dernière que les étiquettes d'IA allaient être ajoutées à YouTube et à ses autres plateformes. "Dans les mois à venir, nous introduirons des étiquettes qui informeront les spectateurs que le contenu réaliste qu'ils voient est synthétique", a réaffirmé Neal Mohan, PDG de YouTube, dans un billet de blog publié mardi.
L'une des préoccupations potentielles des consommateurs est que les plateformes technologiques deviennent plus efficaces pour identifier les contenus générés par l'IA à partir d'un ensemble de grands fournisseurs commerciaux, mais qu'elles passent à côté de ce qui est produit avec d'autres outils, créant ainsi un faux sentiment de sécurité.
"Beaucoup de choses dépendent de la manière dont les plateformes communiquent avec les utilisateurs", a déclaré M. Vidan, de Cornell. "Que signifie cette marque ? Avec quel degré de confiance dois-je la prendre ? Qu'est-ce que son absence est censée me dire ?"
Aller à la video
Nigéria : l'influenceuse Bobrisky condamnée pour "pulvérisation de nairas"
Aller à la video
Instagram va flouter les images de nudité dans les messages directs
02:36
Ouganda : un logiciel en langue locale pour les malvoyants
01:25
ONU : le Maroc et les USA mènent une résolution sur l'intelligence artificielle
Aller à la video
Ouganda : un mouvement de protestation en ligne dénonce la corruption
02:08
Le Kenya teste une application mobile pour détecter la tuberculose