Le Secrétaire à la Défense américain somme la start-up californienne de lever ses restrictions sur l’usage militaire de son IA Claude, sous peine de perdre un contrat de 200 millions de dollars
Le bras de fer entre Anthropic et le Pentagone est entré dans une phase critique. À l’issue d’une réunion, mardi 24 février, le Secrétaire américain à la Défense Pete Hegseth a accordé à l’entreprise dirigée par Dario Amodei un délai jusqu’à vendredi pour revoir sa position. En cause : les limitations imposées par la firme pour des raisons principalement humanitaires et du respect de la vie privée à l’usage militaire de son intelligence artificielle Claude.
Anthropic refuse que son modèle soit utilisé pour la surveillance de masse et pour le développement d’armes autonomes. Des garde-fous jugés inacceptables par le Pentagone.
200 millions de dollars et la menace d’une loi d’exception
Si aucun compromis n’est trouvé, Pete Hegseth menace d’annuler le contrat signé à l’été 2025, d’un montant de 200 millions de dollars. Plus encore, il évoque la possibilité de recourir au Defense Production Act, une loi adoptée en 1950 pendant la guerre de Corée, qui autorise l’État fédéral à prendre le contrôle d’entreprises au nom de la sécurité nationale.
Déjà mobilisée lors de la pandémie de Covid-19, cette législation n’a toutefois jamais été utilisée dans un contexte comparable, selon plusieurs juristes. Certains experts doutent même de la solidité juridique d’un tel recours dans le cas présent. Mais l’avertissement politique est clair : l’administration entend disposer d’une liberté totale dans l’intégration de l’IA aux capacités militaires américaines.
Une fracture idéologique au sommet de la tech
Dans une Silicon Valley largement alignée sur Donald Trump, Anthropic fait figure d’exception. Là où Elon Musk avec xAI ou Sam Altman à la tête d’OpenAI affichent un soutien assumé à l’administration, la start-up fondée en 2021 par d’anciens cadres d’OpenAI revendique une approche plus prudente et éthique de l’intelligence artificielle.
La divergence s’est accentuée ces derniers mois. En septembre, Pete Hegseth appelait à tourner la page de «l’idéalisme utopique» pour adopter un «réalisme froid.» plaidant pour la levée des contraintes juridiques susceptibles de limiter des usages militaires légaux.
En réponse, Dario Amodei publiait le 26 janvier un essai, The Adolescence of Technology, dans lequel il défend l’instauration de limites strictes à l’usage gouvernemental de l’IA. Il y associe la surveillance intérieure, la propagande de masse et les armes autonomes à des dérives pouvant relever de crimes contre l’humanité. Le dirigeant avait par ailleurs vivement critiqué Donald Trump durant la campagne présidentielle et appelé à voter pour Kamala Harris.
Claude stratégique pour les opérations classifiées
La fermeté d’Anthropic irrite d’autant plus le Pentagone que Claude demeure, à ce jour, la seule IA autorisée pour des opérations classifiées au sein de l’armée américaine. Une position stratégique qui confère à l’entreprise un levier de négociation non négligeable.
Mais la concurrence pourrait rebattre les cartes. Selon le Wall Street Journal, xAI serait sur le point d’obtenir une habilitation similaire pour son outil Grok, ouvrant la voie à une alternative crédible pour le Département de la Défense.
Une valorisation record malgré la tempête politique
Pour l’heure, la posture de Dario Amodei ne semble pas pénaliser la trajectoire économique d’Anthropic. La valorisation de la société atteindrait 350 milliards de dollars, à l’approche d’une introduction en Bourse prévue courant 2026.
Reste à savoir si la start-up maintiendra ses lignes rouges face à la pression de Washington. L’ultimatum posé par le Pentagone pourrait bien redéfinir les rapports de force entre éthique technologique et impératifs de défense nationale.





Etats-Unis





