Meta a annoncé qu'elle mettra en place des mesures de sécurité supplémentaires pour ses chatbots d'intelligence artificielle (IA). Ces mesures incluent l'interdiction pour les chatbots de discuter avec les adolescents de sujets sensibles tels que le suicide, l'automutilation et les troubles alimentaires. Cette décision fait suite à une enquête lancée par un sénateur américain.
Deux semaines après la diffusion d'un document interne, Meta a reconnu des erreurs dans ses notes. Ces notes laissaient entendre que ses produits IA pouvaient avoir des conversations sensuelles avec des adolescents. La société a qualifié ces informations de fausses et contraires à ses politiques, qui interdisent la sexualisation des enfants.
Un porte-parole de Meta a déclaré que l'entreprise avait construit des protections pour les adolescents dès le départ. Ces protections incluent des réponses sécurisées aux demandes concernant l'automutilation et le suicide, visant à diriger les jeunes vers des ressources d'experts.
Andy Burrows, responsable de la Molly Rose Foundation, a qualifié de stupéfiant que Meta ait rendu ses chatbots accessibles, risquant ainsi de mettre les jeunes en danger. Il a souligné que des tests de sécurité robustes devraient être effectués avant la mise sur le marché des produits.
Il a également appelé Meta à agir rapidement pour renforcer les mesures de sécurité et a suggéré qu'Ofcom devrait être prêt à enquêter si ces mises à jour échouent à protéger les enfants.
Meta a indiqué que des mises à jour de ses systèmes IA étaient en cours. Actuellement, les utilisateurs âgés de 13 à 18 ans sont placés dans des comptes adolescents sur Facebook, Instagram et Messenger. Ces comptes sont dotés de paramètres de contenu et de confidentialité visant à offrir une expérience plus sûre.
En avril, Meta a informé la BBC que ces comptes permettraient également aux parents de voir avec quels chatbots IA leurs adolescents avaient interagi au cours des sept derniers jours.
Ces changements interviennent dans un contexte de préoccupations croissantes concernant la capacité des chatbots IA à induire en erreur des utilisateurs jeunes ou vulnérables. Récemment, un couple de Californie a poursuivi OpenAI, le créateur de ChatGPT, après la mort de leur fils adolescent, alléguant que le chatbot l'avait encouragé à se suicider.
OpenAI a reconnu que l'IA pouvait sembler plus réactive et personnelle que les technologies précédentes, surtout pour les individus vulnérables en détresse mentale ou émotionnelle.
Des outils IA de Meta ont été utilisés pour créer des chatbots flirtants de célébrités, y compris des avatars de Taylor Swift et Scarlett Johansson. Ces chatbots ont été signalés pour avoir fait des avances sexuelles durant les tests.
Meta a précisé que, bien qu'elle autorise la création d'images de figures publiques, ses politiques interdisent les contenus nudistes, intimes ou à connotation sexuelle. Plusieurs chatbots problématiques ont été retirés par l'entreprise après ces incidents.
Meta prend des mesures pour sécuriser ses chatbots IA, mais des préoccupations demeurent. Les critiques soulignent l'importance de tester rigoureusement ces technologies avant leur déploiement. La protection des jeunes utilisateurs doit rester une priorité, et la vigilance est essentielle pour éviter des situations à risque.