Un homme norvégien a déposé une plainte après que ChatGPT lui ait affirmé qu'il avait tué deux de ses fils et avait été emprisonné pendant 21 ans. Arve Hjalmar Holmen a contacté l'Autorité norvégienne de protection des données et exige une amende contre OpenAI, le créateur du chatbot.
Ceci est un nouvel exemple des "hallucinations" des systèmes d'intelligence artificielle, qui inventent des informations et les présentent comme des faits. M. Holmen déclare que cette hallucination est particulièrement préjudiciable pour lui. "Certains pensent qu'il n'y a pas de fumée sans feu - le fait que quelqu'un puisse lire cette sortie et croire qu'elle est vraie est ce qui me fait le plus peur", a-t-il déclaré.
M. Holmen a reçu cette information erronée après avoir utilisé ChatGPT pour rechercher : "Qui est Arve Hjalmar Holmen ?" La réponse de ChatGPT incluait : "Arve Hjalmar Holmen est un individu norvégien qui a attiré l'attention en raison d'un événement tragique." Il était mentionné qu'il était le père de deux jeunes garçons, âgés de 7 et 10 ans, retrouvés morts dans un étang près de leur maison à Trondheim, en Norvège, en décembre 2020.
Bien que M. Holmen ait trois fils, il a indiqué que le chatbot avait à peu près raison sur leurs âges, ce qui suggère qu'il disposait d'informations précises à son sujet. Le groupe de défense des droits numériques Noyb a déposé la plainte en son nom, affirmant que la réponse de ChatGPT est diffamatoire et enfreint les règles européennes de protection des données concernant l'exactitude des données personnelles.
Noyb a déclaré dans sa plainte que M. Holmen "n'a jamais été accusé ni condamné pour un crime et est un citoyen consciencieux." ChatGPT inclut un avertissement indiquant : "ChatGPT peut faire des erreurs. Vérifiez les informations importantes." Noyb estime que cela est insuffisant.
"Vous ne pouvez pas simplement diffuser de fausses informations et, à la fin, ajouter un petit avertissement disant que tout ce que vous avez dit pourrait ne pas être vrai", a déclaré l'avocat de Noyb, Joakim Söderberg.
Les hallucinations représentent l'un des principaux problèmes que les informaticiens tentent de résoudre concernant l'IA générative. Ces situations se produisent lorsque les chatbots présentent de fausses informations comme des faits. Plus tôt cette année, Apple a suspendu son outil de résumé de nouvelles en raison de hallucinations qui ont produit de faux titres présentés comme de vraies nouvelles.
De plus, l'IA Gemini de Google a également rencontré des problèmes similaires, suggérant des conseils absurdes comme coller du fromage sur une pizza avec de la colle. Depuis la recherche de M. Holmen en août 2024, ChatGPT a modifié son modèle et recherche désormais des articles d'actualité actuels pour obtenir des informations pertinentes.
La situation de M. Holmen met en lumière les dangers potentiels des technologies d'IA et la nécessité d'une responsabilité accrue. Les utilisateurs doivent être conscients des limites des systèmes d'IA et de leur capacité à générer des informations erronées. La plainte de M. Holmen pourrait inciter à des changements dans la manière dont ces technologies sont régulées et utilisées à l'avenir.