L'intelligence artificielle ne se contente plus de transformer notre rapport au travail ou à la création ; elle est devenue l'acteur incontournable des rapports de force géopolitiques. Ce lundi 13 avril 2026, lors de l'événement Semafor World Economy à Washington, une déclaration a fait l'effet d'une bombe dans la sphère technologique et politique. Jack Clark, cofondateur d'Anthropic, a confirmé publiquement que son entreprise avait officiellement briefé l'administration Trump sur Mythos, son nouveau modèle d'IA.

Cette annonce prend une saveur particulière, presque ironique, au vu du contexte actuel. Anthropic se trouve en plein cœur d'un conflit judiciaire majeur avec le Pentagone, qui a récemment placé l'entreprise sur sa liste noire des fournisseurs à risque. Pourtant, loin de se retirer dans ses quartiers, le géant de la Silicon Valley courtise activement la Maison Blanche. Ce basculement soudain vers la « sécurité nationale » comme argument de communication interpelle. Il pose une question fondamentale qui hante désormais les observateurs : Mythos est-il une simple avancée technologique, ou une bombe à retardement politique dont le monde commence à peine à mesurer la dangerosité ?
« Le gouvernement doit être au courant » : une révélation qui change tout
Une déclaration publique inattendue à Washington
La scène s'est déroulée sous les feux des projecteurs de la capitale fédérale, lors d'un rendez-vous économique qui réunit habituellement des décideurs financiers plutôt que des stratèges de l'IA. Jack Clark, figure emblématique d'Anthropic, y a lâché une révélation qui a changé la donne en quelques secondes. Face aux journalistes et aux analystes présents, il a déclaré sans ambages : « Nous avons un petit différend contractuel, mais je ne veux pas que cela nous empêche de nous préoccuper de la sécurité nationale ». Cette phrase, apparemment anodine, marque la fin d'une certaine réserve.
Il ne s'agit plus de rumeurs ou de fuites anonymes : Anthropic admet officiellement engager le dialogue avec l'exécutif américain concernant Mythos. Lors de cet événement Semafor World Economy, le cofondateur a justifié cette démarche par une forme de devoir moral envers l'État, ajoutant que « le gouvernement doit être au courant de ces choses ». L'effet de surprise était total. Jusqu'ici, l'entreprise se prévalait de son indépendance et de son éthique pour se tenir à distance des intrigues partisanes. En officialisant ce contact, Anthropic opère un virage tactique majeur, cherchant visiblement à se rapprocher du centre du pouvoir pendant que ses liens avec le complexe militaro-industriel se distendent. Ce mélange des genres, où une firme privée briefe le pouvoir politique sur une technologie non régulée, instaure un précédent inquiétant pour la transparence démocratique. Ce rapprochement soudain interroge sur la nature réelle des échanges entre la Silicon Valley et Washington, une dynamique que nous avions déjà commencée à analyser dans notre article détaillant l'affaire Anthropic Pentagone.

La fin de la distance critique avec le pouvoir
Ce basculement de posture marque la fin d'une ère pour Anthropic. Fondée sur des principes de prudence et de sécurité, l'entreprise semblait jusqu'ici vouloir maintenir une distance saine avec les acteurs politiques pour garantir l'intégrité de ses recherches. En brisant ce tabou, Jack Clark envoie un signal fort : la technologie est devenue trop puissante pour rester dans le laboratoire. L'argument du devoir d'information envers l'État sert ici de cheval de Troie pour réintégrer le giron gouvernemental par la porte politique, après avoir été éjecté par la porte militaire.
Cette stratégie comporte des risques majeurs pour la crédibilité de l'entreprise. En acceptant de briefer l'administration Trump sur Mythos, Anthropic s'expose aux accusations de complaisance politique. Le message implicite est que la sécurité nationale ne peut être assurée qu'avec la coopération des géants de la tech, ce qui renforce ces derniers au détriment des institutions régulatrices classiques. C'est un changement de paradigme qui inquiète les défenseurs de la souveraineté numérique des États.
Un briefing au milieu de la tempête judiciaire
La liste noire du Pentagone et ses conséquences
Il est difficile de ne pas voir une certaine audace, voire une forme de cynisme, dans cette démarche. Le timing choisi par Jack Clark pour annoncer ce briefing est d'autant plus troublant qu'il coïncide avec l'isolement institutionnel croissant d'Anthropic. Rappelez-vous : début mars 2026, le Pentagone a pris une décision historique en classant l'entreprise comme « risque pour la chaîne d'approvisionnement ». Cette sanction, interdisant l'utilisation des outils d'Anthropic par le ministère de la Défense et ses sous-traitants, a placé l'entreprise dans une position précaire, une première pour une société technologique américaine de cette envergure.
La situation s'est encore dégradée le 8 avril dernier, lorsqu'une cour d'appel fédérale de Washington a refusé de lever cette sanction, validant ainsi la décision de l'administration de maintenir Anthropic à l'écart des contrats militaires. Dans ce contexte, l'annonce d'un briefing à la Maison Blanche ressemble à une manœuvre de contournement. Tandis que le Pentagone, bras armé de l'État, rejette Anthropic au nom de sa propre sécurité et de ses intérêts contractuels, la Maison Blanche, bras politique, semble prête à tendre l'oreille. C'est cette dissonance qui rend la déclaration de Clark si déstabilisante : elle suggère que la technologie a atteint un niveau de puissance politique qui dépasse les cadres réglementaires habituels, nécessitant des canaux de discussions « officiels » mais extrajudiciaires. Pour comprendre la profondeur de ce rift, il est essentiel de se remémorer les détails de l'ultimatum du 27 février qui a précipité cette crise.

Une manœuvre politique pour survivre
Cette séparation entre le Pentagone et la Maison Blanche offre une opportunité inespérée pour Anthropic de jouer sur les divisions de l'État américain. L'entreprise tente clairement de se positionner comme un partenaire indispensable pour la sécurité civile et la politique étrangère, là où le Pentagone la juge inadaptée pour le champ de bataille. C'est une approche risquée qui pourrait se retourner contre elle si l'administration Trump décidait de suivre l'avis de ses militaires. Néanmoins, cela prouve une chose : le pouvoir d'une IA moderne réside moins dans son code que dans sa capacité à influencer les décideurs.
En se présentant comme le garant d'une technologie trop dangereuse pour être ignorée, Anthropic espère faire pression sur le Pentagone en passant par le sommet de l'État. C'est une forme de poker menteur à échelle planétaire : « Nous sommes indispensables à la sécurité du pays, donc vous ne pouvez pas nous exclure ». Si cette stratégie fonctionne, elle pourrait redéfinir le rapport de force entre la Silicon Valley et le gouvernement américain pour les années à venir.
Mythos : une IA capable de découvrir des failles zero-day en autonomie
Une autonomie inédite pour le codage
Pour saisir pourquoi ce modèle suscite autant d'intérêt — et d'inquiétude — au sommet de l'État, il faut comprendre ce qui différencie Mythos de ses prédécesseurs comme Claude. Annoncé dès le 7 avril 2026, soit à peine quelques jours avant les révélations de Washington, Mythos n'est pas une simple mise à jour algorithmique. Dans son billet de blog officiel, Anthropic le décrit comme son modèle « le plus performant à ce jour pour le codage et les tâches agentiques ». Ce terme d'« agentique » est ici la clé de voûte du problème.

Contrairement aux IA génératives classiques qui se contentent de produire du texte ou de l'image en réponse à une commande, Mythos possède la capacité d'agir de manière autonome. Il ne se contente pas de suggérer du code ; il peut l'écrire, le tester, le corriger et l'exécuter dans un environnement numérique sécurisé. Cette autonomie lui permet de mener à bien des tâches complexes nécessitant une chaîne de raisonnement et d'actions étendue, sans que chaque étape nécessite une validation humaine. En termes de puissance brute, cela représente un saut quantitatif et qualitatif. L'IA passe du statut d'assistant à celui d'opérateur virtuel. Cette capacité d'action autonome est précisément ce qui inquiète les experts en cybersécurité et, semble-t-il, ce qui a alerté les autorités gouvernementales. Ce n'est plus seulement un outil intellectuel, c'est un instrument d'action directe sur les systèmes informatiques.
La chasse aux failles zero-day automatisée
Là où Mythos devient réellement effrayant, c'est dans son application concrète à la cybersécurité. Plusieurs sources techniques, corroborées par les annonces du consortium Glasswing, indiquent que Mythos est capable d'identifier des milliers de vulnérabilités « zero-day » de manière autonome. Pour le profane, le terme « zero-day » peut sembler obscur, mais il désigne la hantise absolue des administrateurs systèmes : une faille de sécurité inconnue du fabricant du logiciel et pour laquelle aucun correctif (patch) n'existe encore.
Imaginez une IA capable de scanner en permanence le code de systèmes d'exploitation ou de logiciels critiques, de détecter des failles que personne n'avait jamais vues, et de les exploiter instantanément. C'est le potentiel de Mythos. Si cette capacité peut être utilisée à des fins défensives — pour anticiper les attaques et boucher les brèches avant qu'elles ne soient utilisées par des pirates — elle ouvre également la porte à des offensives d'une ampleur inédite. Une telle puissance entre de mauvaises mains pourrait paralyser des infrastructures entières en quelques minutes. Le fait qu'Anthropic reconnaisse cette capacité et l'utilise comme argument pour briefer le gouvernement sur la « sécurité nationale » est un aveu implicite : Mythos est une arme potentielle, même si elle est présentée comme un outil de protection. La frontière entre défense active et attaque préventive devient poreuse, et le gouvernement se doit de comprendre qui tient le manche. Pour saisir l'ampleur des risques que cela engendre, il est crucial de comprendre ce que signifie le classement d'Anthropic comme risque pour la sécurité.
Glasswing : une alliance industrielle pour sécuriser le monstre
Le consortium des géants de la Tech
Face à une telle puissance, Anthropic n'a pas choisi de développer Mythos en vase clos. L'entreprise a annoncé la formation du consortium Glasswing, une initiative qui rassemble les plus grands noms de la tech mondiale : Google, Nvidia, Apple, Microsoft, mais aussi des spécialistes de la cybersécurité comme CrowdStrike et Palo Alto Networks. L'objectif affiché de cette coalition est d'utiliser Mythos pour identifier et combler les failles de sécurité avant la publication publique du modèle.

Cette alliance industrielle sans précédent sert deux objectifs. D'abord, elle légitime la puissance de Mythos : si Apple, Google et Microsoft mettent leurs forces en commun pour tester un modèle, c'est qu'il ne s'agit pas d'un gadget marketing. Ensuite, elle agit comme une chambre de compensation pour évaluer les risques. En permettant à ces géants de « tester » l'IA, Anthropic espère probablement valider l'idée que les risques sont maîtrisables. Cependant, cette concentration de pouvoir entre les mains d'un cercle restreint d'entreprises ne rassure pas tout le monde. Cela signifie que pendant un temps, ces quelques acteurs privés disposeront d'un accès exclusif à une technologie capable de redessiner la carte de la cybersécurité mondiale. Le fait que le gouvernement fédéral soit briefé sur les résultats de ces tests suggère une forme de collusion naissante : l'État déléguerait une partie de sa souveraineté numérique à un consortium privé tout en exigeant d'être tenu informé.
Le risque de l'auto-régulation industrielle
L'initiative Glasswing pose également la question de l'auto-régulation. Est-il acceptable que les entreprises qui créent les risques soient aussi celles qui jugent si elles sont sous contrôle ? Bien que des spécialistes de la sécurité comme CrowdStrike et Palo Alto Networks fassent partie du projet, l'absence d'instances publiques indépendantes dans ce comité de surveillance est notable. Le gouvernement américain semble accepter ce transfert de responsabilité, peut-être par manque d'expertise technique en interne.
Cette situation crée un précédent dangereux où la sécurité nationale dépendrait de la bonne volonté et de la compétence technique d'un consortium privé. Si Mythos échappe à tout contrôle malgré ces tests, le gouvernement se retrouvera sans recours, ayant abdiqué sa souveraineté au profit d'un trust technologique. C'est un pari risqué qui pourrait se retourner contre l'État américain en cas de fuite ou d'utilisation détournée de la technologie.
« Arrogance et trahison » : comment le Pentagone a déclaré la guerre à Anthropic
Le contrat de 200 millions et les lignes rouges éthiques
Pour comprendre pourquoi Anthropic cherche maintenant la faveur de Trump et de sa Maison Blanche, il faut revenir sur la rupture consommée avec le Pentagone. Tout a commencé avec un contrat prometteur de 200 millions de dollars signé en juillet 2025. À cette époque, l'armée américaine voyait en Anthropic un partenaire potentiel pour moderniser ses capacités d'analyse et de défense. Mais très vite, le dialogue s'est tendu. La source principale du conflit résidait dans l'utilisation militaire des modèles d'IA.

Le Pentagone, dans une logique de maximisation de ses capacités, exigeait un accès illimité à tous les usages « légaux » de la technologie. En clair, l'armée ne voulait pas de restrictions sur la manière dont elle pourrait déployer l'IA, tant que cela respectait le droit américain en vigueur. De son côté, Anthropic, fidèle à sa charte fondatrice sur la sécurité, a tenté de poser des lignes rouges infranchissables. L'entreprise a exigé des garanties formelles que sa technologie ne serait pas utilisée pour développer des armes autonomes létales — ces machines capables de tuer sans intervention humaine — ni pour la surveillance de masse domestique sur le sol américain.
C'est là que le bât a blessé. Pour le complexe militaro-industriel, accepter qu'un fournisseur privé dicte les conditions morales d'utilisation de ses propres outils était inacceptable. La rupture était inévitable. En refusant de céder sur ces points, Anthropic s'est attiré les foudres de la défense américaine. Cette posture morale a été perçue non pas comme de l'éthique, mais comme une obstruction bureaucratique dangereuse en temps de tensions géopolitiques. Cette fronde n'était pas isolée, et des figures politiques comme Elizabeth Warren ont qualifié la décision du Pentagone de représailles, soulignant que l'administration pouvait être vindicative envers ceux qui osent s'opposer à ses projets.
Une sanction historique et humiliante
Les réponses du gouvernement n'ont pas tardé et ont été d'une violence rare à l'égard d'une entreprise de la tech. Pete Hegseth, le secrétaire à la Défense, n'a pas mâché ses mots en qualifiant le comportement d'Anthropic d'« arrogance et de trahison » envers son propre pays. Ce vocabulaire fort, emprunté aux conflits militaires, marque le degré d'hostilité : Anthropic a cessé d'être vu comme un partenaire pour devenir un adversaire quasi idéologique. Donald Trump lui-même est monté au créneau, déclarant dans une interview avoir « viré Anthropic comme des chiens ».
Cette escalade verbale a débouché sur une sanction concrète et historique : Anthropic est devenu la première entreprise américaine à être officiellement désignée comme « risque pour la chaîne d'approvisionnement » par le Pentagone. Jusqu'ici, cette classification humiliante était réservée à des entreprises étrangères considérées comme des menaces espionnes ou économiques, comme Huawei ou ZTE. L'appliquer à une startup de la Silicon Valley fondée par d'anciens chercheurs de Google et d'OpenAI marque un tournant dans la relation entre l'État et la Big Tech. Le jugement de la cour d'appel fédérale du 8 avril, refusant de lever cette sanction, a entériné cette rupture. C'est dans ce contexte d'exclusion militaire que le briefing sur Mythos prend tout son sens : Anthropic, rejeté par l'aile militaire, tente de sauver sa peau en séduisant l'aile politique de l'exécutif. Si vous souhaitez en savoir plus sur l'ampleur de ce conflit juridique et politique, nous avons détaillé les tenants et aboutissants de cette guerre de l'IA.
De la « constitution éthique » aux couloirs du pouvoir : le grand paradoxe d'Anthropic
L'origine vertueuse d'Anthropic en 2021
Il y a une ironie palpable à voir Anthropic, aujourd'hui au centre d'une tempête politique liée à une IA dangereuse, se présenter en défenseur de la sécurité. En 2021, Dario et Daniela Amodei ont claqué la porte d'OpenAI, déçus par ce qu'ils percevaient comme un virage trop commercial et trop précipité vers l'AGI (intelligence artificielle générale). Leur objectif avoué était de fonder une nouvelle entreprise dédiée à la création d'une IA « sûre » et « responsable ».
Pour ce faire, Anthropic a développé le concept de « constitution éthique ». L'idée était brillante sur le papier : au lieu de régler le comportement de l'IA via des ajustements manuels laborieux, il fallait lui inculquer un ensemble de règles et de principes moraux dès sa conception, un peu comme une charte des droits de l'homme pour les machines. Ce positionnement a permis à Anthropic de lever des fonds massifs et de se poser en alternative vertueuse à GPT-4 et à d'autres modèles perçus comme moins contrôlables. Pendant des années, l'entreprise a cultivé cette image de « bonne élève » de la tech, celle qui sacrifie la vitesse pour la sûreté. Face au briefing de Trump sur Mythos, ce récit fondateur semble s'effriter. L'entreprise qui se voulait le gardien du temple de l'éthique se retrouve à courtiser le pouvoir politique avec une technologie dont les applications sont potentiellement dévastatrices.

Le lien ambigu avec Palantir et la surveillance
Cependant, pour certains observateurs avisés, ce virage n'est pas une surprise totale mais l'aboutissement logique d'une ambiguïté de fond. Margaret Mitchell, chercheuse renommée en éthique de l'IA, a pointé du doigt ce qu'elle appelle la contradiction d'Anthropic. Elle souligne que malgré ses discours vertueux sur la sécurité et la protection des droits humains, l'entreprise n'a pas hésité à signer des partenariats pour du travail classifié avec des entités controversées comme Palantir.
Pour ceux qui ne connaissent pas ce nom, Palantir est le géant du logiciel de surveillance, connu pour travailler étroitement avec les agences de renseignement du monde entier, y compris la CIA et le FBI. Le fait qu'Anthropic s'associe avec Palantir pour traiter des données classifiées contredit directement son image publique. Si l'on est vraiment préoccupé par l'impact sociétal de l'IA, pourquoi fournir les outils à une entreprise dont le business model repose sur la surveillance de masse ? Le briefing de l'administration Trump s'inscrit dans la continuité de cette logique pragmatique, voire cynique. L'éthique semble flexible, s'adaptant aux opportunités du marché et aux pressions politiques. Le « sûr » défini par Anthropic ne signifie donc pas « inoffensif » ou « apolitique », mais plutôt « contrôlable par l'entreprise et ses alliés ».
La « sécurité nationale » comme levier politique
Cette analyse met en lumière un glissement sémantique inquiétant : l'instrumentalisation du concept de « sécurité nationale ». Dans son conflit avec le Pentagone, Anthropic refusait d'aider l'armée au nom de la sécurité humaine et des droits fondamentaux, arguant que ses modèles ne devaient pas servir à tuer. Pourtant, dans sa communication sur le briefing de Trump, l'entreprise invoque la même notion de sécurité nationale pour justifier pourquoi elle doit parler au gouvernement de Mythos.
Dans la bouche de Jack Clark, la « sécurité nationale » devient un argument fourre-tout pour justifier un rapprochement avec le pouvoir politique. Le message implicite est le suivant : « Si vous ne nous laissez pas faire, l'IA deviendra incontrôlable et cela sera dangereux pour le pays ; donc vous devez travailler avec nous ». C'est une forme de chantage à la technologie. En se posant en gardien ultime d'une IA trop puissante pour être ignorée, Anthropic essaie de se rendre indispensable à l'État, quelles que soient les orientations politiques de ce dernier. Le Pentagone utilisait la sécurité nationale pour exiger un accès total ; Anthropic l'utilise maintenant pour exister politiquement. Les deux côtés jouent le même jeu, rendant le débat éthique quasi impossible.

Ce que les chercheurs de Carnegie prévoient : l'IA comme outil d'influence politique
Le contenu synthétique multimodal comme arme
Si l'on passe du cas spécifique d'Anthropic à une vision plus large, le briefing sur Mythos s'inscrit dans une tendance lourde identifiée par des chercheurs de la Carnegie Endowment. Leurs travaux sur l'intersection de l'IA et de la démocratie documentent depuis des mois comment les acteurs politiques peuvent utiliser l'intelligence artificielle non plus seulement pour analyser des données, mais pour créer des réalités alternatives.
Le concept clé est celui du « contenu synthétique multimodal ». L'IA moderne, et Mythos en particulier, ne se limite pas au texte. Elle peut générer des images, des vidéos et des audio indiscernables de la réalité. Selon les recherches de Carnegie, ces outils deviennent la boîte à outils ultime de la manipulation politique. Imaginez des campagnes de désinformation capables de générer automatiquement des milliers de vidéos diffamatoires ciblant des rivaux, ou des appels à la mobilisation personnalisés pour chaque électeur, ajustés en temps réel selon leurs réactions. Contrairement à la propagande du siècle dernier, qui nécessitait des ressources humaines et logistiques énormes, l'IA permet de produire ce contenu de manière industrielle et à moindre coût. Le danger n'est plus simplement que le mensonge se répande, mais qu'il inonde l'espace numérique jusqu'à noyer la vérité. Le fait qu'Anthropic briefe le pouvoir actuel sur une telle technologie suggère que ces scénarios ne sont pas de la science-fiction, mais des options stratégiques envisagées sérieusement par les administrations.
Une différence de nature, pas de degré
Il est crucial de comprendre qu'un modèle comme Mythos ne représente pas une amélioration de degré par rapport aux technologies précédentes, mais une différence de nature. Les chercheurs soulignent que les capacités « agentiques » de Mythos changent la donne. Une IA qui peut coder, agir et modifier des systèmes autonomes peut orchestrer des campagnes d'influence bien au-delà de la simple publication de faux messages.
Mythos pourrait potentiellement identifier les failles dans les systèmes de communication d'un adversaire, les exploiter pour diffuser de l'information à un moment critique, ou même manipuler des marchés boursiers en générant des flux de nouvelles synthétiques. Si un gouvernement, quelle que soit son étiquette politique, obtient un contrôle direct ou une influence prioritaire sur un tel outil, les capacités de manipulation politique changent d'échelle. Nous ne parlons plus seulement de « fausses nouvelles » sur les réseaux sociaux, mais de la possibilité pour un acteur étatique de modeler l'environnement informationnel global en temps réel. Le dialogue entre Anthropic et l'administration Trump prend alors une teinte beaucoup plus sombre : il ne s'agit pas seulement de réguler une technologie, mais de négocier la répartition du pouvoir sur la perception de la réalité par les citoyens.
Ce que le rapprochement Anthropic-Trump signifie pour votre flux d'information
L'autonomie de Mythos au service de la propagande
Pour le citoyen ordinaire, l'électeur qui s'informe sur son téléphone le matin en prenant le métro, cette histoire de « briefing à la Maison Blanche » peut sembler lointaine. Pourtant, elle a des conséquences directes et immédiates sur la manière dont nous consommons l'information. La logique implacable de Mythos est la suivante : si l'IA est capable de coder en autonomie pour pirater des systèmes, elle est tout aussi capable de générer de la propagande en autonomie.
Les mêmes mécanismes de traitement du langage qui permettent à Mythos d'écrire du code complexe lui permettent de rédiger des articles, des discours ou des tweets persuasifs. Sa capacité agentique signifie qu'elle pourrait gérer des milliers de faux profils sur les réseaux sociaux, interagir avec de vrais utilisateurs, débattre, influencer des opinions, le tout sans intervention humaine continue. Si une telle technologie tombe sous la coupe d'une administration politique, ou même si elle est simplement « briefée » par elle, votre flux d'information devient un champ de bataille. La prochaine fois que vous verrez une campagne virale soutenir un candidat ou une idée, vous devrez vous demander : est-ce l'expression d'un mouvement citoyen, ou le résultat d'une exécution autonome de Mythos ? La ligne entre l'authentique et le synthétique est en train de s'effacer définitivement.
Le doute comme outil de contrôle permanent
Cette impossibilité de discerner le vrai du faux crée un climat de défiance généralisé qui profite aux acteurs autoritaires. Si rien ne peut être prouvé comme authentique, alors la vérité objective perd sa force. Le danger de Mythos réside dans sa capacité à saturer l'espace public de contenus si convaincants qu'ils rendent toute vérification factuelle impossible. L'administration Trump, connue pour son utilisation agressive des réseaux sociaux, pourrait utiliser ces outils non seulement pour promouvoir son propre agenda, mais aussi pour semer le chaos chez ses adversaires.
Le citoyen se retrouve pris en étau entre deux dangers croissants : la manipulation directe par de fausses informations crédibles, et la paralysie causée par l'incertitude permanente. C'est l'ère du « post-vrai » industrialisé, où la réalité devient un produit fabriqué par des algorithmes au service d'intérêts politiques.
Le Rubicon franchi : pourquoi aucun pays n'est à l'abri d'un Mythos national
Le précédent américain et l'effet domino
L'alliance que nous voyons se nouer à Washington entre Anthropic et l'administration Trump ne restera probablement pas sans conséquence de l'autre côté de l'Atlantique. Les grandes puissances ne laissent jamais leurs adversaires technologiques prendre une avance sans réagir. Si le binôme « IA-géante de la tech » et « pouvoir politique » se normalise aux États-Unis, les États européens, et la France en particulier, ne seront pas en reste.
L'Europe a déjà ses propres projets d'IA souveraine et explore l'utilisation de ces technologies dans ses administrations et services de renseignement. Le précédent posé par le briefing de Mythos invite à une question inquiétante : qui en Europe contrôlera l'outil qui contrôle l'information ? Si les États-Unis disposent d'un outil capable de façonner l'opinion publique à l'échelle mondiale via des modèles agentiques, l'Europe risque d'être confrontée à un choix binaire : développer son propre « Mythos » souverain avec les mêmes dérives potentielles, ou devenir le terrain de jeu des modèles américains et chinois. Le Rubicon du contrôle politique de l'IA a été franchi à Washington ; l'Europe devra tôt ou tard décider si elle le franchit à son tour, au risque de sacrifier une partie de ses idéaux démocratiques sur l'autel de l'efficacité numérique.
Une course aux armements numérique
Nous assistons potentiellement au début d'une nouvelle course aux armements, non plus conventionnelle ou nucléaire, mais cognitive. Chaque grande puissance voudra son propre Mythos pour garantir son autonomie stratégique. Cette course sera coûteuse, tant financièrement qu'éthiquement. Les pays qui ne pourront pas développer ou se payer une telle IA deviendront des dépendances technologiques des grandes puissances, soumises à leur influence informationnelle.
C'est un scénario glaçant pour la démocratie mondiale. Si l'information devient le champ de bataille principal, les pays dotés des IA les plus puissantes domineront le monde sans avoir à tirer un seul coup de feu. La souveraineté ne se mesurera plus au nombre de chars ou de bombes, mais à la capacité d'influencer les esprits à l'échelle planétaire.
Conclusion : le contrôle des esprits entre dans l'ère industrielle
Au final, cette affaire dépasse largement le cadre d'une simple saga d'entreprise ou d'un conflit contractuel avec le Pentagone. Elle marque le début d'une nouvelle ère où la technologie n'est plus un simple support, mais un acteur politique autonome. Le briefing de l'administration Trump par Anthropic sur Mythos n'est pas une anecdote tech, c'est un signal d'alarme. Il nous dit que le contrôle des esprits est entré dans une phase industrielle.
La convergence entre une puissance de calcul autonome comme Mythos et des ambitions politiques autoritaires crée un cocktail explosif. La démocratie repose sur le partage d'une réalité commune et sur des débats ouverts entre humains. Si ces débats sont infiltrés, manipulés ou générés par des machines indétectables, le contrat social se dissout. Anthropic, en se posant en intermédiaire nécessaire entre l'IA et le pouvoir, prend un risque immense : celui de devenir l'architecte des vérités de demain.
Avant la prochaine élection, que ce soit en France, aux États-Unis ou ailleurs, chaque citoyen doit se poser une question fondamentale : « La personne qui me parle ici est-elle un humain, ou le résultat d'un Mythos briefé par un gouvernement ? » L'enjeu n'est plus technologique, il est purement démocratique. Si nous ne pouvons plus faire confiance à ce que nous lisons ou voyons, le fondement de notre liberté disparaît. Mythos est là, et ceux qui le détiennent tiennent désormais le levier le plus puissant qui soit : notre perception de la réalité.