Le Règlement Européen de l'Intelligence Artificielle, entré en vigueur le 2 août, a suscité peu d'attention parmi les grandes capitales européennes. Ursula Von der Leyen, présidente de la Commission Européenne, n'a pas évoqué ce projet de loi crucial pour sa première législature, alors qu'elle était en pleine négociation d'un traité tarifaire avec les États-Unis.
Le débat sur l'impact de ce règlement sur l'innovation en Europe est intense. Malgré les critiques de certaines entreprises, comme Freepik, la Commission a réussi à avancer grâce au soutien de la plupart des grandes entreprises technologiques américaines. Seules Meta et xAI, l'entreprise d'Elon Musk, n'ont pas signé les codes de pratiques.
Ces codes engagent des entreprises telles qu'OpenAI, Microsoft et Google à respecter la réglementation sur l'IA d'ici 2027. Cela inclut des engagements concernant la sécurité et la transparence dans l'utilisation des données. Cependant, la majorité des capitales européennes n'ont pas encore mis en place les autorités nécessaires pour superviser l'application de ce règlement.
En Espagne, la Agence Espagnole pour la Supervision de l'Intelligence Artificielle (AESIA) sera responsable de cette supervision. La Commission Espagnole de Protection des Données (AEPD) jouera également un rôle, bien que la répartition des fonctions doive encore être clarifiée par une loi non adoptée. Néanmoins, l'AEPD a déjà des pouvoirs pour sanctionner l'utilisation de systèmes d'IA interdits, notamment ceux liés à la biométrie dans les espaces publics.
Cette situation a créé un labyrinthe législatif en Europe, avec plusieurs autorités ayant des compétences variées pour appliquer la loi sur l'IA. Certains pays, comme l'Allemagne, tentent de retarder l'application de la loi, ce qui complique encore davantage le paysage réglementaire.
Les entreprises ressentent une certaine confusion face à l'implémentation de cette législation. Guillermo Hidalgo, associé chez Maio Legal, souligne que le texte présente des lacunes qui doivent encore être résolues. Par exemple, le profilage des clients basé sur leurs émotions est considéré à haut risque si effectué via des données biométriques, mais la situation devient floue si une transcription est utilisée.
Hidalgo insiste sur la nécessité pour les entreprises de s'assurer que l'IA qu'elles utilisent soit correctement cataloguée. Cela inclut la vérification que l'IA est de généralité (comme ChatGPT) et qu'elle respecte les exigences réglementaires en matière de documentation technique.
Un autre défi majeur concerne la formation obligatoire pour l'utilisation de l'IA. Bien que cette obligation existe depuis février, elle peut maintenant être sanctionnée depuis août si elle n'est pas respectée. Les entreprises commencent à réaliser l'importance de cette formation, surtout lorsque les conséquences financières deviennent réelles.
Hidalgo note également la difficulté de traduire un règlement complexe en applications pratiques pour les entreprises. Ce processus de mise en œuvre est essentiel pour garantir la conformité avec la législation tout en s'adaptant aux besoins technologiques spécifiques des entreprises.
La mise en œuvre du Règlement Européen de l'IA pose de nombreux défis pour les entreprises en Europe. Alors que certaines avancées ont été réalisées, la route reste semée d'embûches. Il est crucial que les entreprises s'adaptent rapidement à ces nouvelles exigences pour éviter des sanctions et garantir une utilisation éthique de l'IA.