OpenAI admet une surveillance qui dépasse la simple conversation
OpenAI vient d’avouer ce que beaucoup redoutaient : ChatGPT n’est pas seulement un outil de conversation, c’est aussi un système qui surveille, recoupe et évalue le comportement de ses abonnés au fil du temps — et qui peut, à sa seule discrétion, alerter les autorités. La nouveauté du billet publié par l’entreprise est qu’il officialise une pratique qui va au‑delà de la simple collecte de données pour l’entraînement des modèles : il parle d’analyse comportementale et de transmission possible aux forces de l’ordre.
Un cas tragique mis en lumière
Le 10 février 2026, un tireur a tué deux personnes à Tumbler Ridge, en Colombie‑Britannique. OpenAI a été informée de ses conversations alarmantes dès juin 2025, huit mois avant le drame. Malgré cela, Sam Altman et ses équipes ont estimé que le risque n’était pas suffisant pour contacter la police canadienne.
Un dispositif hybride de détection et ses zones d’ombre
Le billet décrit un dispositif hybride : des classificateurs automatiques scrutent en continu les échanges des abonnés. Lorsqu’un message est signalé, des examinateurs humains prennent le relais ; OpenAI dit aussi faire appel à des psychiatres et spécialistes du comportement pour évaluer la dangerosité. L’entreprise insiste sur un point : un message isolé peut sembler anodin, mais un schéma qui se dessine sur plusieurs sessions peut révéler quelque chose de plus grave.
Le souci, c’est que tout cela se déroule sans mandat judiciaire, sans audit indépendant et sans cadre légal clairement cité. OpenAI reconnaît que ses critères de signalement sont volontiers vagues — « un utilisateur ne mentionne pas toujours explicitement la cible, les moyens ou le calendrier », écrit‑elle — et ajoute qu’un appel interne est prévu, autrement dit : le surveillant juge sa propre surveillance.
Conséquences directes pour la vie privée des utilisateurs
Les conversations avec ChatGPT ne sont donc pas privées au sens courant du terme. Des examinateurs lisent aussi des échanges d’adolescents ; si une « détresse aiguë » est détectée, les parents peuvent être informés.
Pour les adultes, OpenAI propose une fonctionnalité de « contact de confiance » : une personne désignée sera prévenue si l’IA juge que l’abonné a besoin de soutien. L’entreprise ne publie ni le nombre de conversations révisées, ni celui des signalements transmis aux autorités.
Que retenir : vigilance face à une surveillance privée
OpenAI se présente comme protectrice des communautés, mais elle reste une entreprise privée qui décide seule quand alerter. Aucun passage du billet ne cite le RGPD ni n’annonce d’audit indépendant pour vérifier la conformité à la loi européenne sur les données personnelles. Ne confiez donc jamais à ChatGPT d’informations intimes ou sensibles que vous ne seriez pas prêt à voir analysées par des humains et, potentiellement, partagées avec des tiers.
Ce n’est plus seulement de la collecte pour entraîner des modèles : c’est de la surveillance comportementale exercée par une société privée qui agit sans contrôle externe.
