Anthropic dispose de 72 heures pour céder aux exigences militaires du Pentagone
Le secrétaire à la Défense Pete Hegseth menace d'invoquer une loi de 1950 pour contraindre la start-up d'IA à lever ses restrictions éthiques sur l'usage de Claude
Le bras de fer entre le Pentagone et Anthropic a franchi un seuil critique ce mardi 24 février 2026. Pete Hegseth, secrétaire américain à la Défense, a convoqué Dario Amodei, PDG de la start-up californienne, pour lui adresser un ultimatum sans précédent : lever toutes les restrictions sur l'utilisation militaire de son intelligence artificielle Claude d'ici vendredi 27 février à 17 heures, sous peine de sanctions drastiques. En jeu : un contrat de 200 millions de dollars et la possibilité d'activer le Defense Production Act, une loi d'exception datant de la guerre de Corée qui permettrait au gouvernement de réquisitionner la technologie de l'entreprise. Cette confrontation révèle les tensions croissantes entre l'éthique de l'IA et les impératifs de la défense nationale américaine.
- Pete Hegseth a donné jusqu'au vendredi 27 février 2026 à 17 heures à Anthropic pour lever toutes restrictions sur l'usage militaire de Claude, sous peine de sanctions
- Le Pentagone menace d'invoquer le Defense Production Act de 1950, une loi permettant de réquisitionner des ressources privées, jamais utilisée dans ce contexte selon des experts
- Anthropic refuse deux usages militaires : la surveillance de masse des populations et les armes autonomes sans supervision humaine, au nom de principes constitutionnels
- Un contrat de 200 millions de dollars signé à l'été 2025 est en jeu, Claude étant actuellement le seul modèle d'IA commerciale avancée déployé dans les environnements classifiés du Pentagone
- Malgré ce bras de fer, Anthropic affiche une valorisation de 350 milliards de dollars, démontrant la viabilité économique d'une approche éthique de l'intelligence artificielle
La rencontre du 24 février 2026 au quartier général du département de la Défense s’est déroulée dans une atmosphère de confrontation ouverte. Selon BFM, Pete Hegseth a fixé un délai expirant vendredi à 23h01 heure de Paris pour qu’Anthropic se plie aux exigences du Pentagone. L’enjeu dépasse le simple cadre contractuel : il s’agit d’un affrontement idéologique entre deux visions radicalement opposées du développement de l’intelligence artificielle.
Le ministre de la Défense a clairement signifié qu’aucune société privée ne dicterait au département ses choix opérationnels. Face à lui, Dario Amodei défend une approche éthique de l’IA qui refuse catégoriquement deux usages militaires : la surveillance de masse des populations et le développement d’armes autonomes capables de décisions létales sans supervision humaine directe. Ces lignes rouges, inscrites dans la constitution d’Anthropic publiée début 2026, visent à « empêcher des actions à la dangerosité inappropriée ».
Un arsenal juridique d’exception brandi contre une start-up
Les menaces du Pentagone ne relèvent pas de la simple rhétorique. Selon Numerama, Pete Hegseth envisage d’inscrire Anthropic sur une liste noire réservée aux entreprises constituant un « risque pour la chaîne d’approvisionnement ». Cette liste, qui ne compte actuellement que des sociétés étrangères comme l’équipementier chinois Huawei ou le spécialiste russe Kaspersky, n’a jamais accueilli d’entreprise américaine.
Plus radical encore, le secrétaire à la Défense brandit le Defense Production Act, une législation adoptée en 1950 dans le contexte de la guerre de Corée. Cette loi permet au président de réquisitionner des ressources industrielles privées au nom de la défense nationale. Toutefois, son application dans ce contexte soulève des questions juridiques inédites. Jerry McGinn, directeur du Centre d’études stratégiques et internationales, a déclaré au Washington Post : « Je ne suis pas sûr que cet aspect de la DPA ait jamais été utilisé de cette manière ».
L’ironie de la situation n’échappe à personne : le Pentagone menace de sanctionner son principal fournisseur d’IA pour les opérations classifiées. Selon Armees.com, Claude serait actuellement le seul modèle d’IA commerciale avancée déployé dans les environnements hautement sensibles du département de la Défense, bien que xAI d’Elon Musk ait obtenu en cette fin février 2026 les mêmes autorisations.
Un contrat de 200 millions de dollars en péril
Les enjeux financiers de cette confrontation sont considérables. D’après l’Associated Press, quatre entreprises d’IA , Anthropic, Google, OpenAI et xAI , ont reçu l’été dernier des contrats de défense pouvant atteindre chacun 200 millions de dollars, soit environ 184 millions d’euros par entreprise. Le contrat d’Anthropic, signé à l’été 2025, permet à Claude d’opérer sur des réseaux classifiés du Pentagone, une capacité stratégique qui explique l’acharnement du département de la Défense.
Sean Parnell, porte-parole du Pentagone, a formulé la position officielle sans ambiguïté : « Notre nation exige que nos partenaires soient disposés à aider nos combattants à gagner dans n’importe quel combat. » Cette déclaration, rapportée par Armees.com, illustre la doctrine affirmée par Pete Hegseth en janvier dernier, lorsqu’il avait annoncé que le ministère écarterait les modèles d’IA « qui ne permettent pas de faire la guerre ».
Face à cette pression, Anthropic tente de maintenir une posture de dialogue. Un porte-parole de l’entreprise a déclaré à l’AFP : « Nous poursuivons nos discussions de bonne foi relatives aux usages (de l’IA) », précisant que l’objectif est de « s’assurer qu’Anthropic peut continuer à soutenir la mission de sécurité nationale du gouvernement en accord avec ce que nos modèles peuvent réaliser de façon responsable et fiable ».
L’exception Anthropic dans la Silicon Valley trumpiste
La position d’Anthropic tranche radicalement avec celle de ses concurrents dans un écosystème technologique largement aligné sur l’administration Trump. Selon L’Express, tandis qu’Elon Musk (xAI) et Sam Altman (OpenAI) ont prêté allégeance au président américain, Anthropic maintient une ligne éthique distinctive depuis sa fondation en 2021 par d’anciens cadres d’OpenAI.
Cette posture s’est cristallisée dans un essai publié par Dario Amodei le 26 janvier dernier, intitulé « The Adolescence of Technology ». Le PDG y défend la nécessité de « limites à l’usage autorisé de l’IA par nos gouvernements » et assimile « la surveillance intérieure », « la propagande de masse » et « les armes autonomes » à de possibles « crimes contre l’humanité ». Ces positions contrastent frontalement avec le mémo de Pete Hegseth de septembre dernier proclamant : « Fini l’idéalisme utopique, place au réalisme froid ».
Les convictions personnelles de Dario Amodei ajoutent une dimension politique à ce conflit. Selon L’Express, il avait qualifié Donald Trump de « seigneur de guerre féodal » dans un message Facebook durant la campagne présidentielle, appelant à voter pour Kamala Harris. Une prise de position qui n’a pas échappé à l’administration actuelle.
Les arguments constitutionnels d’une résistance éthique
Au-delà des positions de principe, Dario Amodei développe une argumentation juridique et technique précise. Sur la question des armes autonomes, le PDG d’Anthropic soulève selon Coin Academy une réalité constitutionnelle fondamentale : les protections militaires américaines reposent entièrement sur la capacité d’un soldat humain à refuser un ordre illégal, un garde-fou inexistant pour les systèmes d’armes pilotés par IA.
Concernant la surveillance de masse, l’argumentation touche au Quatrième Amendement de la Constitution américaine. Amodei explique que si le gouvernement ne peut actuellement traiter matériellement chaque conversation enregistrée dans l’espace public, l’IA pourrait changer radicalement cette équation en permettant de transcrire et connecter instantanément des millions de points de données, rendant trivial le profilage de l’opposition politique en quelques secondes.
Ces préoccupations ne sont pas purement théoriques. Coin Academy révèle que Claude a notamment été utilisé lors de la capture du leader vénézuélien Nicolás Maduro en janvier dernier, une mission après laquelle Anthropic a demandé des précisions sur la manière exacte dont son modèle avait été employé. Cette demande illustre la volonté de la start-up de maintenir une supervision éthique même sur des opérations déjà réalisées.
Une valorisation de 350 milliards malgré les tensions
Paradoxalement, cette posture éthique n’a pas nui au développement commercial d’Anthropic. Selon L’Express, la valorisation de l’entreprise atteint désormais 350 milliards de dollars, en attendant son introduction en bourse. Ce succès financier démontre qu’une approche éthique de l’IA peut coexister avec une performance économique exceptionnelle, remettant en question l’argument selon lequel les garde-fous éthiques constitueraient nécessairement un handicap compétitif.
Le délai fixé par Pete Hegseth expire vendredi 27 février à 17 heures. D’ici là, Anthropic doit choisir entre maintenir ses principes fondateurs et risquer l’exclusion du marché fédéral américain, ou céder aux pressions du Pentagone et abandonner les lignes rouges qui constituent son identité. L’issue de cette confrontation pourrait définir pour des années les rapports entre éthique de l’IA et impératifs militaires, non seulement aux États-Unis mais dans l’ensemble des démocraties occidentales. La question demeure : dans quelle mesure les entreprises technologiques peuvent-elles imposer des limites éthiques à des gouvernements démocratiquement élus, et jusqu’où ces gouvernements peuvent-ils contraindre le secteur privé au nom de la sécurité nationale?
Sources
- BFM (25 février 2026)
- Numerama (25 février 2026)
- L'Express (25 février 2026)
- Armees.com (25 février 2026)
- Coin Academy (25 février 2026)