
Un ultimatum posé au PDG d’Anthropic a tourné au refus net en moins de 24 heures : le secrétaire à la défense, Pete Hegseth, avait donné jusqu’au vendredi 27 février à 17 heures à Dario Amodei pour autoriser l’usage sans contraintes de Claude par le Pentagone, et la réponse est tombée jeudi après‑midi — claire et tranchée : « Ces menaces ne modifient pas notre position : nous ne pouvons en conscience accéder à leur demande. »
Pour autant, le PDG ne ferme pas la porte à la collaboration. Dario Amodei rappelle qu’Anthropic a « travaillé de manière proactive pour déployer ses modèles auprès du département de la guerre (le nouveau nom du ministère de la défense américain) et des services de renseignement », et il souligne qu’un outil comme Claude est déjà employé pour des missions jugées critiques — analyse du renseignement, modélisation et simulation, planification opérationnelle et cyberopérations — autant d’usages où l’IA peut apporter un avantage stratégique sans basculer dans l’abus.
Cependant, l’entreprise pose des limites claires. Là où le Pentagone réclamait un accès sans entrave, Anthropic refuse d’avaliser deux usages précis : la « surveillance intérieure de masse » et les « armes complètement autonomes ». « Ces deux cas d’utilisation n’ont jamais été inclus dans nos contrats avec le département de la guerre, et nous estimons qu’ils ne devraient pas l’être maintenant », conclut M. Amodei, marquant ainsi une frontière nette entre coopération et renoncement éthique.
Le refus n’est pas un geste de principe naïf, mais l’aboutissement d’un positionnement assumé. En effet, l’entreprise assure avoir renoncé à plusieurs centaines de millions de dollars pour couper l’accès à Claude à des sociétés liées au Parti communiste chinois, avoir bloqué des cyberattaques parrainées par Pékin et plaidé pour des contrôles d’exportation de puces. De plus, Anthropic souligne qu’elle a été la première à déployer ses modèles dans des réseaux classifiés américains et dans des laboratoires nationaux, et à fournir des modèles sur‑mesure pour des clients de sécurité nationale — des actions qui illustrent une volonté de concilier sécurité et responsabilité.
Pour Amodei, le problème n’est pas l’usage militaire en soi, mais le risque que certaines applications sapent les valeurs démocratiques. Les systèmes d’IA rendent possible d’assembler automatiquement et à grande échelle des données apparemment inoffensives — mouvements, traces de navigation, relations — en « un portrait complet de la vie d’une personne ». En outre, en vertu du droit actuel le gouvernement peut acheter des fichiers détaillés sur les mouvements, la navigation web et les associations d’Américains sans mandat, une pratique qui soulève des inquiétudes et fait l’objet d’opposition bipartisane au Congrès, souligne l’argumentaire.
Dans ce contexte, la décision d’Anthropic met en lumière un dilemme simple et lourd de conséquences : comment concilier la recherche d’avantages stratégiques en matière d’IA et la préservation des libertés fondamentales ? Néanmoins, le désaccord avec le département de la guerre montre que, quand la technologie dépasse le cadre légal et politique existant, ce sont souvent les entreprises qui tracent des lignes — ou qui choisissent de ne pas les franchir.
La réponse d’Anthropic est sans ambiguïté : l’entreprise continuera de collaborer sur de nombreuses missions de sécurité, mais elle n’autorisera pas Claude pour la surveillance de masse ni pour des armes totalement autonomes, une position destinée à préserver à la fois des capacités opérationnelles et des garde‑fous éthiques.