Des centaines de milliers de conversations d'utilisateurs avec le chatbot d'intelligence artificielle (IA) Grok d'Elon Musk ont été exposées dans les résultats de recherche de Google, souvent sans que les utilisateurs en soient conscients. Cette situation soulève des questions importantes sur la confidentialité et la sécurité des données.
Lorsque les utilisateurs de Grok appuient sur un bouton pour partager une transcription de leur conversation, des liens uniques sont créés. Cependant, ce partage ne se limite pas à l'expéditeur, car il semble que les chats soient également rendus accessibles en ligne. Une recherche sur Google a révélé près de 300 000 conversations indexées, ce qui a conduit certains experts à qualifier les chatbots d'IA de "désastre de la vie privée en cours".
Parmi les transcriptions examinées, on trouve des exemples où le chatbot a été sollicité pour créer un mot de passe sécurisé, fournir des plans de repas pour la perte de poids, ou répondre à des questions médicales détaillées. Certaines transcriptions indexées montrent aussi des tentatives d'utilisateurs pour tester les limites de ce que Grok pourrait dire ou faire.
Un exemple notable a révélé que le chatbot fournissait des instructions détaillées sur la fabrication d'une drogue de Classe A en laboratoire. Cette situation n'est pas sans rappeler d'autres cas où des conversations avec des chatbots ont été exposées au-delà des attentes des utilisateurs.
OpenAI a récemment dû revenir sur une "expérience" qui a vu les conversations de ChatGPT apparaître dans les résultats de recherche. Un porte-parole a déclaré que l'entreprise testait des moyens de partager des conversations utiles tout en gardant le contrôle aux utilisateurs. Ils ont insisté sur le fait que les discussions étaient privées par défaut et que les utilisateurs devaient explicitement choisir de les partager.
Plus tôt cette année, Meta a également fait face à des critiques après que des conversations partagées avec son chatbot Meta AI sont apparues dans un fil public sur son application. Cela souligne les préoccupations croissantes concernant la protection des données des utilisateurs.
Bien que les détails des comptes des utilisateurs puissent être anonymisés dans les transcriptions de chatbots, les informations personnelles pourraient toujours être révélées. Des experts soulignent que cela met en lumière des inquiétudes croissantes concernant la vie privée des utilisateurs. Le professeur Luc Rocher de l'Oxford Internet Institute a déclaré que les "conversations divulguées" peuvent révéler des informations sensibles sur les utilisateurs, allant de leurs noms complets à des détails sur leur santé mentale ou leurs relations.
Une fois divulguées en ligne, ces conversations peuvent rester accessibles indéfiniment, ce qui pose un véritable problème de sécurité des données. Carissa Veliz, professeure associée en philosophie à l'Institut d'éthique de l'IA de l'Université d'Oxford, a ajouté que le manque de transparence sur l'utilisation des données par la technologie est préoccupant.
La situation actuelle concernant les conversations Grok expose des failles sérieuses dans la protection des données des utilisateurs. Les implications de ces révélations sont profondes et soulignent la nécessité d'une meilleure transparence et d'une réglementation plus stricte dans le domaine des chatbots d'IA. Les utilisateurs doivent être conscients des risques associés au partage de leurs conversations et exiger des mesures de sécurité adéquates.