
Dans un ultimatum rendu public cette semaine, le département de la Défense a donné jusqu’à vendredi soir à Anthropic pour lever les restrictions sur son intelligence artificielle Claude — faute de quoi la start‑up s’exposerait à des mesures coercitives inédites. Ainsi se résume, avec une froideur presque militaire, le bras de fer qui oppose aujourd’hui une entreprise axée sur l’éthique et l’appareil d’État le plus puissant du monde.
Lors d’une rencontre tendue, le secrétaire à la Défense Pete Hegseth a posé un ultimatum au PDG d’Anthropic, Dario Amodei : accepter que Claude soit utilisé pour « tous les usages légaux » sans les restrictions actuelles, ou s’exposer à l’application du Defense Production Act de 1950. De plus, le Pentagone menace de placer la société sur une liste noire de « risque pour la chaîne d’approvisionnement », aux côtés d’entreprises comme Huawei, ce qui priverait la start‑up de nombreux contrats gouvernementaux.
La start‑up, fondée par d’anciens cadres d’OpenAI, a bâti sa réputation sur des principes explicites et refuse catégoriquement que son modèle serve à la surveillance de masse ou au développement d’armes létales autonomes capables de décider de tuer sans intervention humaine. En effet, ces lignes rouges sont au cœur de son identité, et la direction le répète : « La seule raison pour laquelle nous leur parlons encore, c’est que nous avons besoin d’eux, et maintenant. »
Le modèle est, à ce jour, le seul validé pour être déployé dans des systèmes classifiés et il est intégré à des outils militaires critiques — notamment via Palantir. Se passer de Claude reviendrait à rompre un contrat estimé à 200 millions de dollars : un coup financier pour la start‑up, mais surtout un casse‑tête opérationnel pour l’armée américaine, qui dépend de ces capacités pour des opérations sensibles.
Pourtant, le département de la Défense ne reste pas inactif : des discussions s’accélèrent avec Google et OpenAI afin d’adapter leurs modèles aux exigences des systèmes classifiés, et xAI a récemment signé pour déployer son modèle Grok. Néanmoins, ces négociations prennent du temps et n’effacent pas la vulnérabilité créée par une dépendance stratégique.
La start‑up assure être prête à modifier certaines politiques pour répondre à des besoins militaires, « mais sans franchir ces lignes rouges ». Or, pour le département de la Défense, ces concessions sont insuffisantes : elles remettent en cause la capacité de l’armée à utiliser la technologie « pour tous les usages légaux » et fragilisent la confiance opérationnelle dans le déploiement de systèmes critiques.
La vraie question dépasse le seul aspect technique : le Pentagone cherche‑t‑il une alternative viable, ou utilise‑t‑il la pression pour faire plier Anthropic avant l’échéance ? En filigrane, c’est la tension entre impératif de sécurité nationale et exigences éthiques qui se joue, avec des conséquences potentielles pour la régulation future des IA.
Le cachet de l’urgence est palpable : la décision attendue d’ici vendredi pourrait redessiner la relation entre sécurité nationale et éthique technologique. Ainsi, le sort de Claude et des garde‑fous d’Anthropic se joue désormais à la fois dans les salles de réunion et dans le vide laissé par une dépendance stratégique.
Quelle que soit l’issue de cet ultimatum, la confrontation met en lumière un dilemme nouveau : comment concilier la nécessité opérationnelle et la volonté de préserver des principes éthiques face à des enjeux de sécurité majeurs ?