La nouvelle règle de Meta : Menace de sanction pour les utilisateurs d’images générées par l’IA
Meta prévoit de mettre en œuvre de nouvelles règles concernant les contenus générés par l’IA sur ses plateformes telles que Facebook, Instagram et threads, comme l’indique un billet de blog de l’entreprise publié le 6 janvier. Ces mesures visent à répondre aux préoccupations croissantes concernant l’authenticité et la transparence des contenus numériques.
Selon l’annonce, tout contenu reconnu comme étant généré par l’IA, soit par des métadonnées, soit par un filigrane intentionnel, sera visiblement étiqueté. En outre, les utilisateurs auront la possibilité de signaler les contenus non étiquetés soupçonnés d’être générés par l’IA, ce qui permettra à la communauté de contribuer aux efforts de modération des contenus.
Cette initiative reflète l’évolution de l’approche de Meta en matière de modération des contenus, qui rappelle ses pratiques antérieures, avant l’émergence des contenus générés par l’IA. En donnant aux utilisateurs les moyens de signaler les violations et en garantissant la transparence de l’étiquetage des contenus, Meta vise à maintenir l’intégrité de ses plateformes.
À l’horizon 2024, Meta s’appuie sur sa vaste base d’utilisateurs pour améliorer ses capacités de modération de contenu. En permettant aux utilisateurs de signaler les contenus générés par l’IA, Meta exploite la puissance du crowdsourcing pour relever les défis émergents en matière d’authenticité des contenus numériques.
Selon le billet de blog :
« Nous exigerons des utilisateurs qu’ils utilisent cet outil de divulgation et d’étiquetage lorsqu’ils publieront un contenu organique avec une vidéo photoréaliste ou un son réaliste qui a été créé ou modifié numériquement, et nous pourrons appliquer des pénalités s’ils ne le font pas ».
Amélioration de la détection des contenus générés par l’IA
Les créateurs qui utilisent les plateformes de Meta devront indiquer que leur contenu est généré par l’IA afin d’éviter d’éventuelles répercussions. Bien que Meta mette en œuvre le filigrane et l’étiquetage pour le contenu généré à l’aide de ses outils, elle reconnaît les limites de la détection à grande échelle du contenu audio et vidéo généré par l’IA.
Pour résoudre ce problème, Meta collabore avec des partenaires industriels tels que Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock. Ensemble, ils cherchent à développer des méthodes pour détecter les filigranes invisibles et améliorer la vérification de l’authenticité du contenu.
Meta reconnaît toutefois les limites actuelles de la détection à grande échelle des contenus audio et vidéo générés par l’IA, y compris la technologie deepfake. Cela souligne les efforts continus nécessaires pour faire face à l’évolution du paysage de l’authenticité et de l’intégrité des contenus numériques.