
Un accord entre le Pentagone et OpenAI autorise désormais l’intégration des technologies d’intelligence artificielle de la société dans des systèmes classifiés, concluant un bras de fer public qui a tourné au désastre pour son rival Anthropic.
Le même jour, le président Trump a ordonné aux agences fédérales de cesser d’utiliser la technologie d’Anthropic ; quelques heures plus tard, OpenAI acceptait que le département de la Défense puisse employer ses systèmes d’IA « pour tout usage licite », une exigence non négociable du Pentagone.
Pour lever la principale objection, la société assure avoir déployé des garde‑fous techniques destinés à garantir que ses outils respectent ses principes de sécurité. Ainsi, OpenAI présente ces mécanismes comme la réponse opérationnelle à la condition posée par l’administration, tandis que le Pentagone conserve la latitude d’emploi qu’il recherchait.
« Dans toutes nos interactions, le DoW a fait preuve d’un profond respect pour la sécurité et d’un désir de partenariat pour obtenir le meilleur résultat possible », a écrit Sam Altman, dirigeant d’OpenAI, en utilisant les initiales « DoW » pour Department of War, le nom préféré de l’administration pour le Department of Defense. Le Pentagone n’a pas immédiatement répondu aux demandes de commentaire.
Anthropic négociait depuis des semaines un contrat d’environ 200 millions de dollars avec le Pentagone, mais s’est heurtée à la même exigence : permettre l’usage de son système pour « tous usages licites ». Néanmoins, la jeune entreprise a refusé d’accepter cette clause sans garanties explicites contre l’emploi de son IA pour la surveillance intérieure des Américains ou pour des armes létales autonomes.
Le Pentagone a répliqué qu’un prestataire privé ne pouvait décider des usages en matière de sécurité nationale, plaçant ainsi les deux parties dans une impasse. De fait, la divergence n’était pas seulement juridique mais aussi éthique et politique, ce qui a rendu la négociation particulièrement sensible et rapidement publique.
La date butoir a été atteinte et dépassée : Anthropic et le Pentagone n’ont pas trouvé d’accord avant la limite fixée à 17h01 le vendredi. Face à cette impasse, le gouvernement a pris des mesures nettes pour trancher le différend.
Le secrétaire à la Défense, Pete Hegseth, a alors désigné Anthropic comme « risque pour la chaîne d’approvisionnement liée à la sécurité nationale », une étiquette qui exclut la start‑up des contrats gouvernementaux américains. Parallèlement, le président Trump a qualifié la jeune entreprise de « société d’IA radicale de gauche », une formule qui souligne le ton fortement politique du litige.
Le contrat conclu avec OpenAI change la donne : le Pentagone obtient la flexibilité d’usage qu’il demandait, et OpenAI récupère une position stratégique au moment où un concurrent se voit écarté. De plus, cette décision illustre combien les enjeux de sécurité nationale et les calculs commerciaux peuvent se télescoper dans le secteur de l’IA.
Au final, OpenAI a accepté que le Pentagone puisse utiliser ses systèmes pour tout usage licite ; parallèlement, la décision prise vendredi 27 février 2026 a abouti à la désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement liée à la sécurité nationale ».
Reste à voir comment ce nouvel équilibre entre contrôles techniques, contraintes politiques et priorités militaires influencera les relations futures entre le gouvernement américain et l’industrie de l’intelligence artificielle.
| Critère (contexte : accord avec le Pentagone) | OpenAI | Anthropic |
|---|---|---|
| Accord avec le Pentagone | A conclu un accord permettant l'utilisation de ses systèmes d'IA pour tout usage licite, avec garde-fous techniques. | N'a pas conclu d'accord dans les mêmes termes et a refusé la clause exigée par le Pentagone. |
| Position sur limites d'usage | Accepte la clause d'usage étendu et affirme pouvoir imposer des protections techniques pour respecter ses principes de sécurité. | Demandait des garanties contractuelles pour empêcher usages comme la surveillance domestique et les armes létales autonomes. |
| Mesures de sécurité proposées | Implémentation de garde-fous techniques spécifiques sur ses systèmes. | Recherchait des termes contractuels contraignants pour limiter certains usages. |
| Conséquences publiques | Perçu comme ayant remporté un avantage commercial et politique en obtenant l'accord. | Désignée par le DoD comme « supply-chain risk » et exclue des affaires gouvernementales ; critique publique du président Trump. |