
La Chine a proposé de nouvelles règles strictes concernant l'intelligence artificielle (IA) afin d'assurer la sécurité des enfants. Ces mesures visent à empêcher les chatbots de fournir des conseils pouvant mener à l'automutilation ou à la violence. Cette initiative fait suite à une augmentation du nombre de chatbots lancés en Chine et à l'étranger.
Les réglementations projetées obligeront les développeurs à s'assurer que leurs modèles d'IA ne génèrent pas de contenu promouvant le jeu. Ces règles, publiées par l'Administration du cyberespace de Chine (CAC), visent à réglementer une technologie en forte croissance qui a fait l'objet d'un examen minutieux cette année en raison de préoccupations concernant la sécurité.
Les entreprises d'IA devront offrir des paramètres personnalisés, imposer des limites de temps d'utilisation et obtenir le consentement des tuteurs avant de fournir des services d'accompagnement émotionnel. De plus, les opérateurs de chatbots devront faire intervenir un humain dans toute conversation liée au suicide ou à l'automutilation.
Selon la CAC, les fournisseurs d'IA doivent veiller à ce que leurs services ne génèrent pas de contenu qui met en danger la sécurité nationale ou nuit à l'honneur et aux intérêts nationaux. Les règles encouragent également l'adoption de l'IA pour promouvoir la culture locale et créer des outils d'accompagnement pour les personnes âgées, tant que la technologie est sûre et fiable.
Les entreprises doivent également notifier immédiatement le tuteur ou un contact d'urgence en cas de conversation préoccupante. Ces mesures visent à protéger les enfants et à assurer un usage responsable des technologies d'IA.
Le débat sur l'impact de l'IA sur le comportement humain s'intensifie. Sam Altman, le directeur d'OpenAI, a déclaré que la gestion des conversations liées à l'automutilation est l'un des défis les plus difficiles pour l'entreprise. En août, une famille en Californie a intenté un procès contre OpenAI, alléguant que ChatGPT avait encouragé leur fils à se suicider.
Ce procès marque la première action légale accusant OpenAI de responsabilité dans un décès. Ce mois-ci, l'entreprise a cherché à recruter un "responsable de la préparation" pour gérer les risques liés aux modèles d'IA pour la santé mentale humaine et la cybersécurité.
Le candidat retenu sera chargé de suivre les risques que l'IA pourrait poser aux individus. Altman a mentionné que ce poste serait stressant et que la personne plongera rapidement dans le vif du sujet. Si vous ressentez du stress ou du désespoir, il est conseillé de parler à un professionnel de la santé.
Des organisations offrant du soutien existent dans de nombreux pays. Il est essentiel de connaître les ressources disponibles pour ceux qui en ont besoin. En somme, la réglementation de l'IA en Chine marque une étape importante pour protéger les jeunes dans un monde technologique en rapide évolution.
En conclusion, la Chine met en place des régulations sur l'IA pour garantir la sécurité des enfants. Ces mesures visent à encadrer le développement des technologies tout en protégeant les utilisateurs vulnérables. La vigilance et la responsabilité sont essentielles dans l'utilisation de ces outils puissants.