Les entreprises technologiques doivent intensifier leurs efforts pour protéger les jeunes des contenus nuisibles, selon de nouvelles mesures de sécurité annoncées par le régulateur des médias. Une étude d'Ofcom révèle que 59% des adolescents de 13 à 17 ans ont vu des contenus « potentiellement nuisibles » en ligne le mois précédent.
Dans le cadre de la mise en œuvre du Online Safety Act, le régulateur a finalisé une série de règles de sécurité pour les enfants. Ces règles entreront en vigueur pour les réseaux sociaux, les moteurs de recherche et les applications de jeux à partir du 25 juillet 2025. Elles visent à empêcher les jeunes d'être exposés à des contenus liés au suicide, à l'automutilation, aux troubles alimentaires et à la pornographie.
Les règles protègent également les enfants des contenus misogynes, violents, haineux ou abusifs, ainsi que du harcèlement en ligne et des défis dangereux. Les entreprises souhaitant opérer au Royaume-Uni doivent adopter plus de 40 mesures pratiques, telles que l'implémentation de méthodes de vérification d'âge plus strictes.
Les entreprises qui ne respectent pas ces règles pourraient faire face à des amendes allant jusqu'à 18 millions de livres ou 10 % de leurs revenus mondiaux. De plus, leurs dirigeants pourraient être emprisonnés. Dans les cas les plus graves, Ofcom peut demander une ordonnance judiciaire pour empêcher l'accès au site ou à l'application au Royaume-Uni.
Certains défenseurs souhaitent des règles encore plus strictes pour les entreprises technologiques. Ian Russell, président de la Molly Rose Foundation, a exprimé son mécontentement face au manque d'ambition des codes. Il a déclaré que des enfants comme sa fille, qui a perdu la vie à 14 ans, méritent une meilleure protection.
Les critiques viennent également du côté des défenseurs de la vie privée, qui estiment que les nouvelles règles menacent la liberté des utilisateurs. Ils soulignent que les méthodes de vérification d'âge peuvent être intrusives et inefficaces, entraînant des violations de la sécurité et de la vie privée.
Le projet de loi impose également aux entreprises de prouver leur engagement à supprimer les contenus illégaux, tels que les abus sexuels sur enfants et la violence extrême. De nouvelles infractions ont été créées, comme le cyber-flashing et le partage de pornographie « deepfake ».
Les enfants âgés de 8 à 17 ans passent entre deux et cinq heures en ligne par jour, selon les recherches d'Ofcom. Près de la moitié des enfants de plus de 12 ans pensent que le temps passé en ligne est bénéfique pour leur santé mentale.
Il est crucial que les parents parlent à leurs enfants de la sécurité en ligne et s'intéressent à leurs activités sur Internet. Deux tiers des parents utilisent des contrôles pour limiter ce que leurs enfants voient en ligne. Internet Matters propose une liste de contrôles parentaux et des guides étape par étape pour les utiliser.
Ces conseils incluent la gestion des comptes d'enfants sur les réseaux sociaux et les plateformes de jeux. Cependant, des données d'Ofcom montrent qu'environ un enfant sur cinq peut désactiver ces contrôles parentaux.
Les nouvelles mesures du Online Safety Act visent à renforcer la protection des enfants en ligne. Bien que des progrès aient été réalisés, des critiques soulignent que des efforts supplémentaires sont nécessaires pour garantir un environnement numérique plus sûr pour les jeunes. La collaboration entre les parents, les entreprises et les régulateurs sera essentielle pour atteindre cet objectif.