Le Pentagone menace de blacklister Anthropic
Un conflit sans précédent est en train d’apparaître entre Anthropic, l’un des géants de l’IA (avec Claude et Claude Code) et le Department of Defense (DOD) américain. L’enjeu dépasse largement un désaccord contractuel. Il touche à une question centrale pour les investisseurs et l’industrie technologique américaine : une entreprise privée peut-elle imposer des conditions d’usage à ses propres modèles ou l’État peut-il exiger un accès au nom de la défense ?
Dans cette affaire, l’administration Trump semble vouloir faire d’Anthropic un exemple, avec des menaces suffisamment lourdes pour peser sur tout le secteur.
Le point de rupture
Le point de rupture est relativement précis. Le Pentagone demanderait l’accès à des outils d’IA de pointe pour “tous les usages légaux”, sans restrictions.
Anthropic, de son côté, accepterait d’assouplir certaines règles mais souhaiterait maintenir deux limites : pas d’usage pour de la surveillance de masse domestique et pas de systèmes d’armes autonomes sans supervision humaine.
En apparence, ces restrictions ne représentent qu’une petite fraction des règles d’usage. Mais politiquement, elles impliquent de tracer une frontière entre ce que l’entreprise juge acceptable et ce que l’État veut pouvoir faire.

Ce qui rend la séquence particulièrement anxiogène pour les marchés, ce sont les menaces de représailles évoquées par le secrétaire à la Défense Pete Hegseth. Deux leviers sont mis sur la table. Le premier consisterait à qualifier Anthropic de “supply chain risk” (risque pour la chaîne d’approvisionnement), une étiquette habituellement réservée à des acteurs étrangers perçus comme dangereux. Le second serait d’utiliser le Defense Production Act (DPA), un outil juridique exceptionnel, pour contraindre l’entreprise à fournir ou adapter sa technologie au besoin du Pentagone.
Claude est déjà devenu un outil critique pour l’État
Pourquoi ce bras de fer compte autant ? Parce qu’Anthropic n’est pas un acteur marginal. La société a fortement ciblé le marché entreprise et gouvernemental avec différentes offres. Claude serait même présenté comme le seul outil disponible pour des usages gouvernementaux jusqu’à un certain niveau de classification.
Autrement dit, l’outil est déjà bien intégré au sein du gouvernement américain.
Investissez dans l'IA avec XTB !
Une contradiction stratégique… qui ressemble à une tactique de négociation
Pour l’investisseur, le risque est double : commercial et politico-réglementaire. Si le Pentagone déclenche une qualification “supply chain risk”, l’impact pourrait être très rapide sur la traction commerciale d’Anthropic. L’idée n’est pas seulement de couper le gouvernement : c’est d’imposer à tout l’écosystème (prestataires, sous-traitants, grands industriels de défense) de certifier qu’ils n’utilisent pas Anthropic.
Or de nombreuses entreprises clientes de Claude Code sont aussi, directement ou indirectement, liées au grand public. Ces entreprises pourraient choisir de continuer à utiliser Claude, mais cela pourrait leur coûter des contrats publics et beaucoup d’entreprises n’auront pas envie de prendre ce risque.
À l’inverse, une invocation du DPA serait un choc d’une autre nature : elle enverrait le signal que l’État peut, en pratique, forcer une entreprise privée à adapter ses modèles aux besoins militaires, y compris en modifiant des limites intégrées au modèle.
Et c’est là que l’angle boursier devient brûlant pour toute personne souhaitant savoir comment investir dans l'IA : Anthropic est décrit comme proche d’une phase charnière, avec un produit en forte adoption (Claude Code) et une trajectoire qui alimente les spéculations sur une IPO à horizon un à deux ans. Dans ce contexte, l’administration Trump jouerait sur un levier redoutable : la capacité de l’État à créer de l’incertitude suffisamment longtemps pour casser une dynamique. Le texte évoque même un “moment décisif” autour du vendredi 27 février 2026, comme une date où le DOD pourrait durcir fortement le ton.
Ce qu’il faut retenir
Soit un compromis est trouvé et Anthropic s’en sort, soit l’État américain décide de dominer les champions de l’IA et donc de bouleverser le marché.
