Meta a engagé des poursuites judiciaires contre une entreprise qui a diffusé des publicités sur ses plateformes pour des applications dites "nudifiantes". Ces applications utilisent généralement l'intelligence artificielle (IA) pour créer de fausses images nues de personnes sans leur consentement. Cette action survient après une longue bataille pour supprimer ces annonces.
En janvier, le blog FakedUp a identifié 8 010 instances de publicités de CrushAI promouvant des applications de nudification sur Facebook et Instagram. Meta a déclaré dans un article de blog que cette action légale montre la sérieux avec lequel ils prennent ce problème et leur engagement à protéger leur communauté.
La croissance de l'IA générative a entraîné une augmentation des applications "nudifiantes" ces dernières années. C'est devenu un problème si répandu que, en avril, la commission pour les enfants en Angleterre a demandé au gouvernement d'introduire une législation pour les interdire complètement. Il est illégal de créer ou de posséder du contenu sexuel généré par IA mettant en scène des enfants.
Meta a également récemment apporté des modifications pour faire face au problème plus large des applications "nudifiantes" en partageant des informations avec d'autres entreprises technologiques. Ils ont indiqué qu'ils avaient fourni plus de 3 800 URLs uniques à des entreprises technologiques participantes depuis fin mars.
Meta a reconnu qu'elle avait des problèmes avec des entreprises contournant ses règles pour publier des annonces à son insu, comme la création de nouveaux noms de domaine pour remplacer ceux interdits. Pour contrer cela, elle a développé une nouvelle technologie visant à identifier ces publicités, même si elles n'incluent pas de nudité.
Les applications de nudification ne sont qu'un exemple des contenus problématiques générés par IA sur les plateformes de médias sociaux. Un autre problème majeur est l'utilisation de l'IA pour créer des deepfakes, des images ou vidéos très réalistes de célébrités, utilisées pour arnaquer ou tromper les gens.
En juin, le Conseil de surveillance de Meta a critiqué la décision de laisser en ligne un post Facebook montrant une vidéo manipulée par IA d'une personne ressemblant au célèbre footballeur brésilien Ronaldo Nazário. Meta a déjà tenté de lutter contre les arnaques utilisant frauduleusement des célébrités dans des publicités grâce à la technologie de reconnaissance faciale.
De plus, Meta exige des annonceurs politiques qu'ils déclarent l'utilisation de l'IA, en raison des craintes entourant l'impact des deepfakes sur les élections. Ces mesures sont essentielles pour maintenir l'intégrité des plateformes sociales.
Meta prend des mesures sérieuses contre les applications "nudifiantes" et leurs conséquences sur la sécurité en ligne. La lutte contre ces abus nécessite une vigilance constante et des innovations technologiques. La protection des utilisateurs reste une priorité pour Meta alors que l'IA continue d'évoluer.