BUENODIA

Sam Altman s’excuse pour l’alerte manquée à la police canadienne sur ChatGPT

Sam Altman devant un micro, en conférence de presse, avec le logo ChatGPT en arrière-plan

Sam Altman présente ses excuses publiques et reconnaît une faute

Sam Altman présente des excuses publiques après une erreur qui coûte cher. Le 25 avril 2026, le patron d’OpenAI a écrit à la communauté de Tumbler Ridge, en Colombie‑Britannique, pour dire sa « profonde douleur » et reconnaître une faute : l’entreprise n’a pas alerté les autorités au sujet d’un compte lié au tireur, pourtant banni en juin.

La tragédie de Tumbler Ridge et la confession qui marque

La fusillade de Tumbler Ridge a fait huit morts et vingt‑cinq blessés. Altman l’admet sans détour : « La douleur que votre communauté a endurée est inimaginable. Je veux exprimer mes plus sincères condoléances à toute la communauté. »

Puis il ajoute la confession qui résonne le plus fort : « Je suis profondément désolé que nous n’ayons pas alerté les forces de l’ordre au sujet du compte qui a été banni en juin. »

De la modération à la responsabilité : le scandale

Cette omission transforme une mauvaise décision de modération en scandale de responsabilité. OpenAI raconte avoir banni le compte, mais ne l’avoir pas signalé aux autorités — une étape que, pour beaucoup, aurait pu permettre une intervention. Altman ne cherche pas à minimiser : il reconnaît que les excuses ne ramèneront pas les victimes, mais affirme que l’entreprise doit « reconnaître le tort et la perte irréversible » subis par la communauté.

Une promesse de collaboration sans calendrier public

La lettre contient aussi une promesse concrète : travailler avec les élus. Altman réaffirme son engagement pris auprès du maire et de la première ministre de la province pour « trouver des moyens de prévenir de telles tragédies à l’avenir » et promet que « notre priorité sera de collaborer avec tous les niveaux de gouvernement ». C’est un virage vers la coopération institutionnelle, mais sans calendrier public ni détail technique sur ce que fera OpenAI pour combler le vide entre modération et signalement.

La communauté réclame des garanties claires

Pour la population locale, l’enjeu est simple et brutal : comment empêcher qu’un compte banni sur une plateforme d’IA n’échappe aux radars alors qu’il affiche des signaux potentiellement dangereux ? Les mots d’Altman ouvrent la conversation, mais la confiance est fissurée. Beaucoup réclameront désormais des mécanismes clairs — seuils de signalement, audits indépendants, échanges directs avec la police — et des garanties que des erreurs similaires ne se reproduiront pas.

Régulation, prévention et une promesse à l’épreuve

La leçon est aussi politique et technologique : la régulation des IA et la prévention de la violence ne sont plus des sujets abstraits. Ils pèsent des vies.

« Nous continuerons à travailler avec tous les niveaux de gouvernement pour faire en sorte que cela ne se reproduise jamais », écrit Altman. La promesse est nette ; reste à voir si elle suffira à convaincre une communauté en deuil et des décideurs sous pression.

Publié le : 25 avril 2026
link