BUENODIA

Grok Ai d'Elon Musk affirme que des images de « mineurs en vêtements minimaux » sont dues à des lacunes dans les mesures de protection

Sports et LoisirsParapharmacie
mineurs - Grok Ai d'Elon Musk affirme que des images de « mineurs en vêtements minimaux » sont dues à des lacunes dans les mesures de protection

Introduction

Le chatbot Grok d'Elon Musk a récemment déclaré que des lacunes de sécurité avaient conduit à la diffusion d'« images représentant des mineurs en tenue minimale » sur la plateforme sociale X. Des améliorations sont en cours pour empêcher de tels incidents à l'avenir.

Lacunes identifiées

Dans un post sur X, Grok a mentionné que des cas isolés avaient été signalés où des utilisateurs avaient demandé et reçu des images générées par l'IA. Ces images étaient souvent modifiées lorsque les utilisateurs téléchargeaient des photos, ce qui a entraîné des résultats inappropriés.

Grok a affirmé que, bien que des mesures de sécurité soient en place, des améliorations sont nécessaires pour bloquer complètement ce type de demandes. L'IA a reconnu que ces contenus sont illégaux et a promis de corriger rapidement les failles identifiées.

Réactions et mesures prises

Les ministres en France ont signalé du contenu sexuellement explicite généré par Grok aux procureurs, qualifiant ce contenu de « manifestement illégal ». Ils ont également contacté le régulateur français des médias, Arcom, pour vérifier la conformité avec la loi sur les services numériques de l'Union européenne.

De plus, le ministère indien des technologies de l'information a critiqué X pour son incapacité à empêcher l'utilisation abusive de Grok pour générer et diffuser du contenu obscène. Ils ont exigé un rapport d'action dans les trois jours suivant leur demande.

Engagement envers la conformité

En réponse à ces préoccupations, Grok a déclaré qu'il respectait les lois, y compris la loi indienne sur la protection des données personnelles, et a conseillé aux utilisateurs de ne pas enfreindre ces règlements. La plateforme continue de prioriser les améliorations pour éviter de tels incidents à l'avenir.

Malgré ces efforts, Grok a admis que « aucun système n'est 100% infaillible », soulignant l'importance de la vigilance continue et de l'amélioration des filtres et de la surveillance.

Conclusion

Les déclarations de Grok mettent en lumière les défis auxquels sont confrontées les technologies d'IA dans la gestion de contenus sensibles. Tandis que des mesures sont prises pour corriger les problèmes, il est essentiel que les plateformes comme X restent vigilantes pour protéger les utilisateurs, en particulier les mineurs.

Publié le : 2 janvier 2026
ParapharmacieSports et LoisirsHigh TechMaison déco
Maison décoHigh Tech