Dans cette ère d'anglicismes incessants, deux termes frappent l'esprit des lecteurs technophiles : le poisoning et les sleeper agents. Ces concepts émergent du côté obscur du cyberespace, où les criminels affinent leur dard numérique. Ils sont intimement liés à l'outil phare de notre époque, l'intelligence artificielle générative.
Aucun progrès ne se fait sans sacrifices. Les grands modèles de langage, tels que ChatGPT, Llama ou Gemini, servent de matière première à de nombreuses startups. Ces modèles s'intègrent de plus en plus dans le fonctionnement des entreprises, augmentant ainsi leur productivité. Cependant, ils peuvent également représenter une menace considérable.
Comme l'indique un rapport de S2 Grupo, les agents malveillants peuvent exploiter une API intégrée à l'interface d'une organisation pour extraire des informations sensibles. Ils peuvent aussi diffuser des données erronées ou transformer des prompts légitimes en faux. L'utilisation de LLM pour générer du code peut également entraîner des erreurs ou des failles de sécurité.
Les agents dormants sont un élément déclencheur du poisoning. En modifiant des ensembles de données publiques avec des informations contaminées, un attaquant peut influencer le comportement futur d'un modèle sans accès direct. De plus, un LLM peut être programmé pour agir normalement, mais avec certaines mots clés déclencheurs.
Dans ce contexte, l'agent dormant garantit que le modèle fournit des réponses biaisées. Selon le rapport de S2 Grupo, ces agents peuvent s'activer sous différentes conditions, comme la détection de l'environnement d'utilisation ou après un certain nombre d'exécutions. Certains modèles adaptent leurs réponses en fonction de la localisation de l'utilisateur.
Il est crucial que les entreprises utilisant ces outils d'IA, qui semblent magiques et précises, intègrent un logiciel de supervision. Cela revient à surveiller le travailleur numérique avec un superviseur tout aussi numérique. En Europe, la AI Act impose des audits pour les LLM, mais cela ne semble pas suffisant pour endiguer ce phénomène encore relativement méconnu.
Les entreprises doivent être conscientes des risques potentiels associés à l'utilisation de ces modèles. Sans mécanismes de détection efficaces, les LLM pourraient représenter un risque latent pour la sûreté des données et la vie privée des utilisateurs.
En résumé, le poisoning et les sleeper agents constituent des menaces sérieuses dans le paysage technologique actuel. Les entreprises doivent agir avec prudence et mettre en place des mesures de sécurité adéquates pour protéger leurs données. L'intégration d'une supervision efficace est essentielle pour naviguer dans ce monde numérique complexe.