BUENODIA

ChatGPT permet désormais aux utilisateurs de créer de fausses images de politiciens. Nous l'avons testé en profondeur.

Publié le : 13 avril 2025

Introduction

Le récent développement de ChatGPT permet désormais de créer des images fictives de personnalités politiques. Cette mise à jour soulève des inquiétudes concernant la manipulation de l'information, surtout en période électorale. La capacité de générer des images réalistes de figures publiques pourrait influencer l'opinion des électeurs.

Création d'images fictives

Selon des tests effectués par CBC News, les nouvelles fonctionnalités de ChatGPT facilitent la création d'images trompeuses de politiciens réels. Bien qu'OpenAI ait des règles contre la manipulation d'images sans consentement, des failles dans ces restrictions ont été identifiées. Les utilisateurs peuvent structurer leurs demandes pour contourner ces limitations.

Par exemple, des images de Mark Carney et de Pierre Poilievre ont été générées dans des situations amicales avec des figures politiques controversées. Cela soulève des questions éthiques sur l'utilisation de l'IA pour influencer les comportements des électeurs.

Risques liés à l'IA

Aengus Bridgman, professeur à l'Université McGill, souligne les dangers de la prolifération d'images générées par IA. Il affirme que c'est la première élection où l'IA générative est suffisamment développée pour produire du contenu ressemblant à celui des humains. Cela pourrait potentiellement manipuler les opinions publiques à grande échelle.

Bridgman avertit que bien que cela n'ait pas été observé lors des dernières élections, cela reste une menace à surveiller de près. Les réseaux sociaux, avec une audience massive, deviennent un terrain fertile pour la désinformation.

Changements dans les règles d'OpenAI

OpenAI avait précédemment interdit à ChatGPT de générer des images de figures publiques. Cependant, depuis le 25 mars, la plupart des versions de ChatGPT incluent la fonctionnalité de génération d'images. OpenAI justifie ce changement par le besoin de créativité et de liberté d'expression, tout en essayant de protéger les individus contre des contenus nuisibles.

Malgré cela, la société affirme que les figures publiques peuvent choisir de ne pas être incluses et qu'il existe des méthodes pour signaler les contenus inappropriés. Cela soulève des questions sur la responsabilité des plateformes face à la désinformation.

Manipulation d'images et contournement des restrictions

Lors de tests, CBC News a constaté que ChatGPT pouvait parfois contourner ses propres restrictions. Par exemple, en modifiant légèrement la formulation d'une demande, il était possible de générer des images de personnalités politiques ensemble, même lorsque cela était initialement refusé.

Ces contournements soulignent les difficultés à créer des systèmes d'IA qui empêchent les abus. Gary Marcus, scientifique cognitif, indique que les garde-fous actuels sont souvent inefficaces, rendant difficile la prévention des utilisations malveillantes.

Conclusion

La capacité de ChatGPT à générer des images de personnalités publiques pose des défis éthiques et pratiques. Alors que les règles d'OpenAI évoluent, il est essentiel de surveiller l'impact de ces technologies sur l'information et l'opinion publique. La vigilance est de mise pour éviter que la désinformation ne devienne un outil de manipulation durant les élections.

images - ChatGPT permet désormais aux utilisateurs de créer de fausses images de politiciens. Nous l'avons testé en profondeur.