BUENODIA

Anthropic ne garantit plus la sécurité de Claude

Logo Anthropic et interface de Claude affichés sur un écran d’ordinateur, avec un avertissement de sécurité visible

Anthropic renonce à la garantie préalable : la promesse d’autrefois remise en question

La jeune entreprise Anthropic s’était faite connaître par une promesse simple et nette : ne pas entraîner de modèles puissants tant qu’elle ne pouvait pas garantir, au préalable, qu’ils étaient sûrs. Fondée en 2021 par d’anciens cadres d’OpenAI, la société avait inscrit cette exigence dans sa Responsible Scaling Policy de 2023, établissant ainsi une ligne rouge apparente entre développement et sécurité.

Une politique 3.0 qui change les critères du jeu

En un geste marquant le 24 février 2026, la société a publié la version 3.0 de sa Responsible Scaling Policy, qui abandonne la garantie préalable au profit d’un critère plus fluide : Anthropic ne ralentira le développement que si elle se considère « en tête » de la course à l’IA et si elle juge les risques catastrophiques « significatifs ». Autrement dit, tant que des rivaux progressent au même rythme, l’entreprise ne s’imposera plus de frein strict.

Dans cette nouvelle logique, la compétition avec des acteurs tels que OpenAI, Google ou xAI devient un paramètre politique de décision : la possibilité d’imposer des contraintes dépend désormais de la position relative d’Anthropic dans la course aux capacités.

Trois raisons expliquent le tournant, selon la direction

Selon Jared Kaplan, directeur scientifique, le basculement s’explique moins par une volonté d’abandon que par l’impuissance des démarches unilatérales face à une course globale. Il a résumé la situation en évoquant trois facteurs lourds qui ont pesé sur la décision.

Premièrement, la complexité même des risques : il devient de plus en plus ardu de trancher si un modèle facilite des attaques biologiques, une « zone d’ambiguïté » qui complique la prise de décision stricte. Deuxièmement, le contexte politique américain, jugé hostile à une régulation contraignante de l’IA, réduit les marges de manœuvre réglementaires. Troisièmement, une pression concurrentielle qualifiée d’existentialiste a rendu les contraintes unilatérales difficiles à soutenir.

Transparence renforcée — mais sans promesses fermes

Pour compenser ce renoncement à la garantie préalable, la version 3.0 promet davantage de transparence : publications régulières de Risk Reports et de Frontier Safety Roadmaps, ouvertes à des évaluateurs externes. Néanmoins, Anthropic précise elle‑même que ces publications ne constituent pas des engagements juridiquement contraignants.

Face à ces annonces, des voix extérieures demeurent sceptiques. Chris Painter, directeur de la politique chez l’ONG METR, observe que l’entreprise semble entrer en « mode triage » parce que les méthodes d’évaluation et d’atténuation des risques n’arrivent plus à suivre le rythme des avancées techniques.

Tensions internes et démissions : un climat tendu

La décision n’est pas restée sans conséquence en interne : la démission de l’ancien responsable de l’équipe Safeguards Research a été l’un des signaux les plus visibles. Dans sa lettre, Mrinank Sharma exprimait une inquiétude aiguë, estimant que « le monde est en péril » si les garde‑fous n’étaient pas maintenus.

Avant ce départ, la firme avait tenté de documenter certains risques. Le 10 février 2026, elle a rendu publique la version externe d’un Sabotage Risk Report concernant Claude Opus 4.6, tout en concluant que ce modèle ne franchissait pas formellement le seuil AI R&D‑4 — une évaluation que la direction reconnaît de plus en plus délicate et contestable.

Pressions militaires et enjeux géopolitiques

Le calendrier de ce pivot coïncide avec une pression accrue de l’armée américaine pour accéder à ces systèmes sans les mêmes contraintes de sécurité. Des responsables ont multiplié les signaux en faveur d’un usage sans restrictions des modèles avancés, ce qui a déplacé le débat de la sphère technique vers l’arène stratégique.

Au-delà des questions de prudence et de compétitivité, le choix d’Anthropic s’inscrit donc dans un contexte géopolitique et militaire où les décisions techniques prennent une dimension stratégique, et où les demandes d’accès se mêlent aux enjeux de puissance.

Un compromis aux frontières floues — qui décide des limites ?

En somme, Anthropic abandonne l’absolu du « ne jamais entraîner sans preuves de sécurité » au profit d’un compromis pragmatique : plus de transparence publique, moins d’entraves pratiques au développement. Cependant, ce compromis élargit la zone grise : lorsque la course prime, qui arbitrera finalement les limites acceptables ?

Les publications de Roadmaps et de rapports de risques suffiront‑elles à convaincre régulateurs, chercheurs et militaires que les dangers sont maîtrisés ? Pour l’instant, la réponse oscille entre promesses publiques et pressions externes, laissant la question ouverte et le débat largement inachevé.

La trajectoire d’Anthropic illustre à la fois la difficulté de concilier sécurité et compétition technologique, et l’importance d’un débat public soutenu pour définir collectivement les limites de l’innovation en intelligence artificielle.

Publié le : 26 février 2026
link