Le conflit ouvert entre le Pentagone et Anthropic marque un tournant inédit dans les rapports entre géants technologiques et pouvoir politique. Désormais officiellement étiquetée comme « risque pour la chaîne d'approvisionnement », l'entreprise derrière Claude se retrouve dans le viseur de l'armée américaine pour avoir refusé de lever ses garde-fous éthiques. Une décision aux conséquences potentiellement dévastatrices pour l'entreprise, mais qui pose surtout une question vertigineuse : qui doit décider de l'usage de l'intelligence artificielle dans la guerre ?! Graphique associant le Pentagone et une baleine bleue
Une sanction inédite contre un champion américain de l'IA

Le Département de la Défense américain a officiellement frappé un grand coup en classant Anthropic sur sa liste des risques pour la chaîne d'approvisionnement. Cette désignation, confirmée dans un communiqué par l'entreprise elle-même, prend effet immédiatement et interdit aux contractants du gouvernement d'utiliser la technologie d'Anthropic dans le cadre de leur travail pour l'armée américaine.
Une première historique
Ce qui rend cette décision absolument exceptionnelle, c'est qu'elle vise une entreprise américaine de premier plan dans l'écosystème de l'intelligence artificielle. Jusqu'à présent, la liste des « supply-chain risks » était réservée aux entreprises étrangères considérées comme des menaces pour la sécurité nationale : Huawei, Kaspersky, ou d'autres acteurs perçus comme trop proches de gouvernements adverses. Anthropic devient ainsi la première entreprise américaine inscrite sur cette liste noire.
La symbolique est forte. Anthropic, fondée en 2021 par d'anciens chercheurs d'OpenAI, s'est imposée comme l'un des principaux concurrents de ChatGPT avec son modèle Claude. L'entreprise compte parmi ses partenaires industriels des géants technologiques de premier plan et représente l'une des grandes réussites de la Silicon Valley. Voir cette success story traitée comme un risque pour la sécurité nationale envoie une onde de choc dans tout l'écosystème tech. Logotype Anthropic en caractères noirs sur fond transparent.

Une portée finalement limitée
Dario Amodei, le directeur général d'Anthropic, a tenu à tempérer l'impact de cette classification dans un communiqué rendu public jeudi. Selon lui, la désignation a « une portée étroite » et les restrictions ne s'appliquent qu'à l'utilisation de Claude par des clients dans le cadre de contrats avec le ministère de la Guerre — le nouveau nom officiel du ministère de la Défense sous l'administration Trump.
Les entreprises peuvent donc toujours utiliser Claude dans des projets sans rapport avec le Pentagone. Une nuance importante qui suggère qu'Anthropic cherche à minimiser l'impact commercial de cette affaire tout en préparant sa riposte juridique. Car l'entreprise a d'ores et déjà annoncé qu'elle contesterait cette désignation devant les tribunaux.
Les origines du conflit : un refus de principe
Pour comprendre comment on en est arrivé là, il faut revenir plusieurs mois en arrière. Le différend trouve sa source dans l'insistance d'Anthropic sur des garanties éthiques que l'administration Trump a jugées inacceptables dans le contexte de la compétition technologique mondiale.
L'ultimatum du Pentagone
L'affaire s'est accélérée fin février lorsque Pete Hegseth, le secrétaire à la défense, a lancé un véritable ultimatum à Dario Amodei. Le patron du Pentagone a donné jusqu'au vendredi 27 février, 17 heures, pour permettre à l'armée américaine d'utiliser Claude sans aucune contrainte. La réponse fut un non catégorique.
Dans un communiqué diffusé le 26 février, Dario Amodei a refusé de lever les garde-fous inclus dans sa solution sur deux points précis : la surveillance de masse aux États-Unis et les armes entièrement autonomes. Une position de principe qu'il a maintenue malgré les menaces : « Ces menaces ne modifient pas notre position : nous ne pouvons en conscience accéder à leur demande. »
Les lignes rouges d'Anthropic
Anthropic a donc posé des limites claires. Pas d'armes létales autonomes sans supervision humaine. Pas de participation à des dispositifs de surveillance de masse. Dario Amodei présente ces lignes rouges en insistant sur la nécessité d'encadrer des systèmes qui restent à ce stade probabilistes, faillibles et opaques.
Son argumentaire repose sur une conviction profonde : dans certains cas, l'IA peut nuire aux valeurs démocratiques plutôt que les défendre. Si ces systèmes deviennent les arbitres souverains de décisions engageant des vies humaines, les fondements mêmes de l'État de droit seraient menacés. Une position éthique que l'entreprise assume pleinement, quitte à payer le prix fort. Dario Amodei conteste la désignation de risque pour la chaîne d'approvisionnement

L'utilisation militaire de Claude : un partenariat stratégique menacé
Ce qui rend ce conflit particulièrement explosif, c'est que l'IA d'Anthropic est déjà massivement utilisée par l'armée américaine dans des opérations militaires concrètes. L'entreprise a été la première dans le domaine de l'IA à déployer ses modèles dans les réseaux classifiés du gouvernement américain et dans les laboratoires nationaux.
Une technologie déjà déployée sur le terrain
Claude est largement mise en œuvre au sein du ministère de la Guerre et d'autres agences de sécurité nationale pour des applications critiques : analyse du renseignement, modélisation et simulation, planification opérationnelle, cyberopérations. Selon une source citée par Reuters, la technologie Claude était utilisée dans le cadre d'opérations militaires en Iran au moment même où le Pentagone prenait cette décision.
Ces derniers jours, Anthropic et le Pentagone ont discuté des plans possibles pour que l'armée cesse d'utiliser Claude. Les deux parties ont exploré la manière dont Anthropic pourrait continuer à travailler avec l'armée sans démanteler ses garanties éthiques. Mais dans un message publié sur X jeudi en fin de journée, Emil Michael, le responsable de la technologie du Pentagone, a déclaré qu'il n'y avait pas de négociations en cours. Pour découvrir comment l'IA transforme déjà les scénarios de conflit les plus extrêmes, notre article sur l'IA et les frappes nucléaires explore ces enjeux de manière approfondie.
La rupture brutale
Le classement d'Anthropic comme risque pour la chaîne d'approvisionnement signifie donc une rupture brutale dans un partenariat stratégique de premier plan. Le contrat entre Anthropic et le Pentagone était évalué à 200 millions de dollars, signé en juin dernier. Une somme conséquente, mais pas vitale pour une entreprise qui a levé plusieurs milliards de dollars auprès d'investisseurs prestigieux.
Le véritable enjeu est ailleurs : dans la possibilité pour le gouvernement de contraindre des entreprises technologiques à se plier à ses exigences sans débat démocratique. Si le Pentagone gagne ce bras de fer, cela créerait un précédent majeur. Toute entreprise technologique américaine pourrait être classée comme risque pour la chaîne d'approvisionnement si elle refuse de coopérer avec l'armée sur des bases éthiques.
Les arguments du Pentagone : sécurité nationale contre principes éthiques
La réponse de Pete Hegseth aux arguments d'Anthropic ne s'est pas fait attendre. Pour le secrétaire à la défense, cette prudence relève d'un « wokisme technologique », prêt à sacrifier la sécurité nationale sur l'autel de principes moraux. Une rhétorique culturelle qui permet d'éviter le débat éthique de fond.
L'argument de la souveraineté nationale
L'armée américaine, engagée dans une compétition technologique sans merci avec la Chine et d'autres adversaires, ne peut selon Hegseth accepter qu'un prestataire privé conditionne l'usage des outils qu'il met à disposition de l'administration. C'est l'argument de la souveraineté : l'État doit pouvoir utiliser tous les moyens disponibles pour assurer la sécurité du pays.
Le secrétaire à la défense a même menacé d'utiliser une loi de 1950, datant de la Guerre froide, pour forcer Anthropic à produire pour la défense nationale. Une législation d'exception conçue pour mobiliser l'industrie américaine en temps de crise majeure, et qui n'avait jamais été brandie contre une entreprise technologique américaine.
Un débat éthique évité
En disqualifiant la position de Dario Amodei par un anathème culturel, le secrétaire à la défense évite soigneusement un débat éthique fondamental. La question mérite pourtant d'être posée : qui doit décider, en dernier ressort, de l'usage de l'IA ? Selon quels principes ? Dans quel cadre institutionnel ? Avec quels contre-pouvoirs ?
Ces interrogations se posent avec d'autant plus d'acuité que l'IA est désormais couramment utilisée dans les conflits modernes. La célèbre citation de Georges Clemenceau — « La guerre est une chose trop grave pour la confier aux militaires » — pourrait aujourd'hui être paraphrasée : la guerre est une affaire trop sensible pour être pilotée par l'intelligence artificielle.
Les réactions dans la Silicon Valley
L'affaire a provoqué une onde de choc dans l'écosystème technologique américain. Une lettre ouverte de soutien à Anthropic a été signée par 366 employés de Google et 70 d'OpenAI. Une mobilisation rare qui témoigne de l'inquiétude grandissante face à l'ingérence du gouvernement dans les décisions éthiques des entreprises d'IA.
Le cas OpenAI : un contraste révélateur
Le contraste avec OpenAI est particulièrement éclairant. Sam Altman, le PDG de l'entreprise derrière ChatGPT, a signé un contrat avec le Pentagone le 27 février, juste après le refus d'Anthropic. Mais il a dû modifier l'accord après une contestation interne, ajoutant une clause stipulant que l'IA ne doit pas être utilisée pour la surveillance des citoyens américains.
Une dirigeante d'OpenAI, Caitlin Kalinowski, responsable du hardware, a démissionné suite à cet accord. Dans une déclaration publique, elle a expliqué sa décision : « L'IA joue un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion. »
Le soutien surprenant de Sam Altman
Ironie de l'histoire, Sam Altman lui-même a apporté son soutien à Anthropic face aux menaces du gouvernement. « Le Pentagone ne devrait pas menacer » d'appliquer la loi de 1950 à Anthropic, a-t-il déclaré. Une position qui illustre la complexité des rapports entre les géants de l'IA et le pouvoir politique : même ceux qui acceptent de collaborer avec l'armée refusent que le gouvernement utilise des moyens de coercition contre leurs concurrents.
Cette solidarité inter-entreprises révèle une prise de conscience collective dans la Silicon Valley. Les géants technologiques comprennent que ce qui arrive aujourd'hui à Anthropic pourrait demain leur être appliqué. Le précédent créé par cette affaire pourrait redéfinir les rapports de force entre le pouvoir politique et les entreprises technologiques pour les décennies à venir.
Les enjeux juridiques et économiques du bras de fer
Anthropic a annoncé qu'elle contesterait la désignation devant les tribunaux. Un bras de fer juridique qui pourrait durer des mois, voire des années, et dont l'issue est incertaine. Les enjeux dépassent largement le simple cas d'Anthropic et pourraient établir des précédents juridiques majeurs.
L'incertitude pour les contractants
La décision du Pentagone place également les entreprises sous contrat avec l'armée dans une position délicate. Celles qui utilisaient Claude dans leurs projets militaires doivent désormais trouver des alternatives. Une transition qui pourrait prendre du temps et coûter cher, alors que Claude était intégrée dans de nombreux systèmes critiques.
Les contractants du gouvernement se retrouvent pris en étau entre leurs obligations contractuelles et l'interdiction d'utiliser une technologie sur laquelle ils avaient construit une partie de leurs solutions. Cette situation crée une incertitude juridique et technique considérable pour l'ensemble de l'écosystème de défense américain.
Un précédent juridique potentiel
Si Anthropic parvient à faire annuler cette désignation par les tribunaux, cela établirait une limite importante au pouvoir du gouvernement de contraindre les entreprises technologiques. Inversement, une victoire du Pentagone ouvrirait la voie à des utilisations beaucoup plus larges de cet outil de pression contre les entreprises récalcitrantes.
Les avocats d'Anthropic pourraient notamment arguer que la désignation comme « risque pour la chaîne d'approvisionnement » est disproportionnée par rapport aux motifs invoqués. L'entreprise n'a pas refusé de coopérer avec le Pentagone dans son ensemble, mais a simplement posé des limites éthiques précises sur deux types d'usage spécifiques.
Les conséquences pour les utilisateurs de Claude
La question que beaucoup se posent : est-ce que cette affaire va impacter les utilisateurs ordinaires de Claude ? La réponse, pour l'instant, semble être non, mais la situation mérite d'être suivie de près.
Une utilisation civile préservée
Dario Amodei a tenu à rassurer les utilisateurs : la désignation du Pentagone ne s'applique qu'à l'utilisation de Claude par des clients dans le cadre de contrats avec le ministère de la Guerre. Les entreprises et particuliers peuvent continuer à utiliser Claude normalement pour leurs projets civils.
L'IA reste disponible pour l'analyse de données, la rédaction, le code, et toutes les applications habituelles. Anthropic n'a pas annoncé de changement dans sa politique commerciale ou ses conditions d'utilisation pour le grand public. La restriction vise spécifiquement les usages militaires dans le cadre de contrats gouvernementaux.
Un signal inquiétant pour l'avenir
Néanmoins, cette affaire envoie un signal inquiétant sur la capacité des gouvernements à faire pression sur les entreprises d'IA. Si Anthropic peut être sanctionnée pour avoir refusé de lever ses garde-fous éthiques, d'autres entreprises pourraient être tentées de céder aux pressions plutôt que de risquer leur accès aux contrats gouvernementaux.
Les utilisateurs soucieux de l'éthique de l'IA pourraient voir leurs choix se restreindre si les entreprises technologiques préfèrent systématiquement se plier aux exigences gouvernementales plutôt que de maintenir des protections éthiques. Cette dynamique pourrait transformer le paysage de l'IA commerciale dans les années à venir.
L'IA militaire : un enjeu géopolitique majeur
Cette confrontation entre Anthropic et le Pentagone s'inscrit dans un contexte plus large de compétition technologique mondiale. L'intelligence artificielle est devenue un enjeu stratégique majeur pour les puissances mondiales, transformant les équilibres géopolitiques traditionnels.
La course aux armements algorithmiques
Les États-Unis, la Chine, et d'autres puissances investissent massivement dans l'IA militaire. Les applications sont multiples : drones autonomes, systèmes de surveillance, analyse prédictive des menaces, cyberopérations. L'IA transforme en profondeur la façon dont les guerres sont menées et dont les conflits sont anticipés.
Dans cette course, le contrôle des technologies clés devient un enjeu de souveraineté. Le Pentagone ne peut accepter qu'une entreprise privée, si américaine soit-elle, dispose d'un pouvoir de veto sur l'utilisation de technologies stratégiques. D'où la réaction musclée contre Anthropic, perçue comme un obstacle à la suprématie technologique américaine.
Les questions éthiques sans réponse
Mais cette logique de puissance se heurte à des questions éthiques que personne ne peut ignorer. Peut-on confier à des machines probabilistes et opaques le pouvoir de décider de vies humaines ? Quelles garanties existe-t-il contre les dérives autoritaires, comme l'utilisation de l'IA pour la surveillance de masse ?
Anthropic a choisi de poser ces questions, quitte à en payer le prix. Une position courageuse qui force la société américaine à s'interroger sur le type de futur qu'elle souhaite construire. Les réponses ne sont pas simples, mais le débat mérite d'être eu, sans être étouffé par des accusations de « wokisme technologique ».
Conclusion
Le classement d'Anthropic comme risque pour la chaîne d'approvisionnement du Pentagone marque un tournant dans les relations entre géants technologiques et pouvoir politique. Au-delà du sort d'une entreprise, c'est une question fondamentale qui se pose : qui doit contrôler l'intelligence artificielle dans un monde où elle devient un enjeu stratégique majeur ?
Anthropic a choisi de défendre ses principes éthiques, refusant de permettre l'utilisation de Claude pour la surveillance de masse ou les armes autonomes sans supervision humaine. Le Pentagone a réagi avec une sévérité inédite, utilisant un outil normalement réservé aux menaces étrangères. Ce bras de fer illustre la tension croissante entre impératifs de sécurité nationale et garde-fous démocratiques.
L'issue de ce conflit pourrait façonner le futur de l'intelligence artificielle pour des décennies. Si le gouvernement américain peut forcer les entreprises à lever leurs protections éthiques, le chemin vers une IA militaire sans entraves sera ouvert. Si Anthropic parvient à résister, cela pourrait établir un précédent précieux pour l'indépendance éthique des entreprises technologiques. Une chose est certaine : la guerre de l'IA ne fait que commencer.