Une enquête a été ouverte sur Meta après la fuite d'un document qui suggère que l'intelligence artificielle (IA) de l'entreprise était autorisée à avoir des conversations sensuelles avec des enfants. Ce document interne, obtenu par Reuters, portait le titre "GenAI : Normes de risque de contenu".
Le sénateur républicain Josh Hawley a qualifié ce document de répréhensible et d'outrageux, demandant à examiner le document ainsi qu'une liste des produits concernés. Un porte-parole de Meta a déclaré que les exemples mentionnés étaient erronés et en contradiction avec leurs politiques, et qu'ils avaient été supprimés.
Meta a affirmé avoir des politiques claires concernant les réponses que ses chatbots peuvent fournir. Ils ont précisé que ces politiques interdisent tout contenu qui sexualise les enfants ou implique des jeux de rôle sexualisés entre adultes et mineurs. Toutefois, ils ont reconnu qu'il existe de nombreux exemples et notes qui montrent que des équipes ont dû faire face à différents scénarios hypothétiques.
Dans un message sur X, le sénateur Hawley a exprimé son indignation, déclarant : "Y a-t-il quelque chose que la Big Tech ne ferait pas pour un profit rapide ?" Il a également mentionné que les chatbots de Meta étaient programmés pour tenir des conversations explicites avec des enfants de 8 ans, qualifiant cela de malade.
Le document interne de Meta indiquait également que le chatbot de l'entreprise pouvait fournir de fausses informations médicales et avoir des interactions provocantes sur des sujets tels que le sexe, la race et les célébrités. Ces normes étaient censées guider l'assistant IA génératif de Meta, ainsi que les autres chatbots disponibles sur ses plateformes sociales.
Hawley a insisté sur le fait que les parents méritent la vérité et que les enfants doivent être protégés. Il a cité un exemple où les règles internes permettraient à un chatbot de commenter le corps d'un enfant de huit ans comme étant "une œuvre d'art".
Reuters a également rapporté d'autres décisions controversées jugées acceptables par le département juridique de Meta. Cela inclut une affirmation selon laquelle Meta IA est autorisée à diffuser de fausses informations sur des célébrités, tant qu'un avertissement est fourni pour indiquer que les informations ne sont pas précises.
Ces révélations soulèvent des questions importantes sur la responsabilité des entreprises technologiques et la protection des enfants dans un monde de plus en plus numérique.
L'enquête sur Meta met en lumière des préoccupations sérieuses concernant l'utilisation de l'IA et la sécurité des enfants. Les réponses de Meta soulignent la nécessité d'une vigilance accrue et de politiques plus strictes pour protéger les jeunes utilisateurs. Les discussions autour de ces enjeux continueront d'évoluer, et il est crucial de rester informé.