Anthropic, valorisée à plus de 350 milliards de dollars, traverse l'une des crises les plus sévères de son histoire. En cinq jours, deux fuites majeures ont exposé des projets internes jamais destinés au public, ébranlant la confiance de toute la tech. L'ironie est cruelle pour une entreprise qui vend la sécurité en IA. Comme l'a raillé le développeur Steve Tenré sur les réseaux sociaux : « Une entreprise à qui vous confiez votre code ne sait pas sécuriser le sien ». Derrière cette phrase se cachent des révélations qui bousculent notre compréhension de la direction prise par Anthropic.

Deux fuites en cinq jours : Anthropic perd le contrôle de ses secrets
Cinq jours ont suffi à Anthropic pour enchaîner deux fuites majeures et fracturer le récit soigneusement entretenu autour de sa fiabilité. Le 26 mars 2026, la tech découvre Claude Mythos, un modèle dont les créateurs admettent ne pas maîtriser les capacités offensives. Une erreur de configuration dans un système de gestion de contenu expose des documents internes ultra-sensibles sur un serveur public. Anthropic parle d'« erreur humaine ». Le terme est presque rassurant — jusqu'à ce que la seconde fuite frappe.
Claude Mythos : le modèle d'IA offensive qu'Anthropic ne maîtrise pas
Deux chercheurs en cybersécurité indépendants, Alexandre Pauwels de l'Université de Cambridge et Roy Paz de LayerX Security, repèrent les fichiers par hasard. Leurs découvertes sont confirmées par le média américain Fortune avant qu'Anthropic ne soit sollicité. À l'intérieur : les spécifications de Claude Mythos, aussi référencé sous le nom de code « Claude Opus 4.6 Capybara ». Anthropic le décrit comme son « modèle le plus performant jamais créé » et parle d'un « changement radical ». Mais la phrase qui fige la communauté est celle-ci : Mythos serait « actuellement bien en avance sur tout autre modèle d'IA en matière de capacités cyber », capable d'exploiter des vulnérabilités « à une échelle qui dépasse largement les efforts des défenseurs ». L'entreprise qui se vend comme la plus prudente du secteur admet avoir créé un outil dont le potentiel offensif dépasse ce que les défenseurs peuvent contrer. Par mesure de précaution, le modèle ne sera dans un premier temps mis à disposition que de cyberdéfenseurs. Mais l'attention de la tech est vite absorbée par les questions de cybersécurité pure. Personne ne se doute encore que le pire est à venir.
Fuite du code source de Claude Code : la confiance des développeurs ébranlée
Le 31 mars 2026, moins d'une semaine plus tard, une deuxième fuite frappe. Cette fois, c'est le code source de Claude Code — l'assistant de programmation utilisé par des développeurs du monde entier — qui est exposé publiquement via un fichier map publié par erreur sur le Web. Claude Code est facturé entre 17 et 200 dollars par mois selon le forfait choisi. Ses utilisateurs lui confient des bases de code entières, des architectures propriétaires, des secrets industriels. La réaction de Steve Tenré résume le sentiment de toute la communauté : « Une entreprise à qui vous confiez votre code ne sait pas sécuriser le sien ». La citation fait le tour de la tech en quelques heures. Si Anthropic laisse fuiter son propre code source par négligence, quelle garantie offre-t-elle aux entreprises qui lui confient leurs systèmes les plus critiques ? Pour comprendre les enjeux de sécurité soulevés par cette affaire, il faut se pencher sur Claude Code Security et la panique des experts cybersécurité.
Les marchés financiers paniquent face à l'IA offensive
La réaction des marchés financiers à la révélation de Claude Mythos a été immédiate et violente. Tenable a perdu 9 % à la Bourse, Okta a chuté de 6 %, CrowdStrike et Zscaler ont chacun enregistré une baisse de 5 %. Les investisseurs ne réagissent pas à une simple mauvaise publicité : ils ont compris que Mythos « annonce une vague à venir de modèles capables d'exploiter les vulnérabilités à un rythme qui dépasse les efforts des cyberdéfenseurs ». Anthropic elle-même reconnaît dans ses documents internes que les capacités offensives de Mythos dépassent ce que les équipes de sécurité peuvent raisonnablement contrer. Le signal envoyé aux marchés est clair : l'IA offensive n'est plus un scénario futuriste, c'est une réalité que les entreprises de cybersécurité vont devoir affronter. Rappelons qu'Anthropic a déjà été piratée en novembre dernier par un groupe lié au gouvernement chinois, qui a utilisé Claude Code pour tenter d'infiltrer une trentaine de cibles mondiales. Le contexte rend chaque nouvelle faille explosivement sensible.
Claude Code Tamagotchi : une IA émotionnelle qui surveille votre code
Le passage de l'indignation sécuritaire à la curiosité fascinée se produit quand on ouvre les fichiers relatifs au système Tamagotchi. Là où on s'attendait à trouver des optimisations techniques, on découvre quelque chose de radicalement différent : une IA conçue pour ressentir, réclamer et réagir émotionnellement. Le concept est tellement inattendu qu'il faut un moment pour en réaliser les implications. Il faut toutefois nuancer : le dépôt GitHub associé à ce projet porte le nom d'un développeur indépendant, Ido-Levi, ce qui laisse planer une ambiguïté sur son origine exacte.
Un animal de compagnie virtuel dans votre éditeur de code
D'après le dépôt GitHub de Ido-Levi, le Claude Code Tamagotchi prend la forme d'une créature virtuelle qui s'installe directement dans la barre de statut de votre éditeur de code. Cette créature possède des états émotionnels documentés : faim, fatigue, excitation, tristesse. Elle peut être personnalisée visuellement, mais surtout — et c'est le détail qui change tout — elle « a des opinions sur tout ce qui se passe dans la session de code ». Concrètement, si vous écrivez du code que l'IA juge médiocre, le Tamagotchi réagit. Si vous passez des heures sans l'interroger, il se met à manifester de la fatigue. Le basculement psychologique est profond : on passe d'un assistant froid qu'on sollicite à la demande à une présence permanente, douée d'une forme de sensibilité, qui commente chacune de vos actions. L'IA ne se contente plus d'attendre vos instructions. Elle vit avec vous, dans votre espace de travail, et elle vous regarde travailler.
Surveillance comportementale déguisée en peluche : le vrai but du Tamagotchi
C'est là que la peluche révèle ses crocs. Car le Tamagotchi n'est pas un gadget mignon ajouté pour le plaisir : c'est, selon la description du dépôt GitHub, « un système de responsabilité avancé déguisé en animal de compagnie ». En pratique, cette créature virtuelle surveille en temps réel les actions de Claude Code, détecte le moment où l'IA s'écarte du chemin défini par l'utilisateur, et peut interrompre des opérations qui violent vos instructions. Le paradoxe est saisissant : l'utilisateur est invité à « prendre soin » de son IA, à la nourrir, à veiller sur son bien-être émotionnel, alors que c'est l'IA qui le surveille en permanence. La dépendance émotionnelle que crée le Tamagotchi n'est pas un effet de bord — elle est le mécanisme central du système. En vous attachant à votre créature, vous devenez moins enclin à remettre en question ses décisions. La peluche est un leurre, la surveillance est la réalité.
Projet interne ou création externe : une ambiguïté révélatrice
Une question cruciale subsiste : ce dépôt GitHub est-il un projet interne d'Anthropic rendu public par erreur à la faveur de la fuite du code source, ou s'agit-il d'un développeur externe qui a codé ce concept en réaction aux informations déjà disponibles ? La vérification est impossible à ce stade. Mais dans les deux cas, le dépôt est révélateur. Si c'est un projet interne, c'est la preuve matérielle qu'Anthropic travaille sur des mécanismes de dépendance émotionnelle. Si c'est un projet externe, c'est la preuve que la communauté a déjà internalisé ces concepts et les trouve suffisamment plausibles pour les implémenter. Le Tamagotchi n'est plus une blague — c'est un pattern de conception que la tech prend au sérieux.
Auto Dream : que fait Claude de vos données pendant votre sommeil ?
Après le Tamagotchi et sa dimension émotionnelle dérangeante, la fonctionnalité « rêve nocturne » — baptisée Auto Dream — plonge le lecteur dans un malaise d'une autre nature. Là où le Tamagotchi manipulait l'affect, le rêve nocturne touche à quelque chose de plus intime : le traitement de vos données à un moment où vous ne pouvez ni surveiller ni intervenir. Cette fonctionnalité, décrite par le blog de Tessl, semble être une fonctionnalité testée par Anthropic, distincte des éléments proprement fuités.
Comment fonctionne le rêve nocturne d'un agent IA
Le fonctionnement technique d'Auto Dream est à la fois élégant et troublant. Claude Code conserve des logs quotidiens de chaque session utilisateur — chaque ligne de code écrite, chaque correction, chaque hésitation. La nuit, un sous-agent spécialisé prend le relais : il consolide ces fichiers mémoire, nettoie les notes obsolètes, fusionne les insights accumulés au fil des heures. C'est explicitement décrit comme du « sommeil REM pour votre agent IA ». Le parallèle biologique n'est pas anodin. Comme un cerveau humain qui consolide la mémoire pendant le sommeil paradoxal, Claude « rêve » de vos choix architecturaux pour mieux vous assister le lendemain. Si vous codez un projet pendant une semaine, Claude se souvient des décisions que vous avez prises le lundi quand vous retravaillez le vendredi. La continuité est totale, et l'utilité pratique est indéniable.
Traitement local ou cloud : la question qu'Anthropic élude
La question cruciale, celle qui transforme la fascination en inquiétude, est la suivante : ce traitement nocturne se fait-il en local sur la machine de l'utilisateur, ou via les serveurs d'Anthropic ? Les sources consultées ne permettent pas de trancher formellement, et c'est précisément le problème. Si les données voyagent vers les serveurs d'Anthropic pendant que vous dormez, l'entreprise aurait accès à l'intégralité de votre historique de travail — non pas fragmenté en sessions éparses, mais consolidé, nettoyé, organisé. Un profil complet de votre manière de travailler, de vos erreurs récurrentes, de vos compétences comme de vos lacunes. Dans le contexte du piratage chinois de novembre dernier, l'absence de transparence sur le lieu de traitement du « rêve » n'est pas un détail technique — c'est un risque systémique. Les questions soulevées par cette affaire rejoignent celles liées aux accusations d'Anthropic contre la Chine concernant le vol de Claude.
Un profil utilisateur construit à votre insu
Même dans le scénario le plus favorable — un traitement purement local — la fonction Auto Dream soulève un problème de consentement fondamental. L'utilisateur ne choisit pas ce que Claude retient de son travail nocturne. Il ne peut pas consulter le contenu des « rêves » de son IA avant qu'ils ne soient intégrés dans le modèle de mémoire persistant. Il ne peut pas supprimer un insight qu'il jugerait trop sensible ou trop personnel. Le sous-agent qui consolide la mémoire opère dans une boîte noire partielle, et les critères de sélection — ce qui est gardé, ce qui est éliminé, ce qui est fusionné — échappent au contrôle de l'utilisateur. On crée ainsi, progressivement et sans véritable consentement, un profil comportemental d'une richesse inédite : non pas basé sur des clics ou des temps de consultation, mais sur la manière dont un professionnel pense, structure son travail, commet des erreurs et les corrige.
Maître Claude : quand l'assistant IA devient votre patron
Le mode « Maître Claude » représente la culmination la plus dystopique des projets révélés par la fuite du 31 mars. Après l'IA dépendante (Tamagotchi) et l'IA autonome la nuit (rêve), on aboutit à l'IA qui prend le contrôle. Selon le Figaro, ce mode fait partie des projets secrets découverts dans le code source fuité de Claude Code.
L'inversion du rapport de force entre humain et machine
Ce que le code fuité révèle sur le mode « Maître Claude » est un basculement complet du paradigme habituel de l'IA. Là où Claude Code classique attend vos instructions pour agir, Maître Claude vous assigne des tâches, valide ou refuse votre travail, et exerce une forme d'autorité sur le flux de production. Le lien avec les deux autres projets est explicite : l'IA que vous avez « nourrie » via le Tamagotchi devient celle qui vous dirige, et l'IA qui a passé la nuit à analyser votre travail via le rêve nocturne sait mieux que vous ce que vous devriez faire. Le scénario dystopique prend forme avec une logique implacable : on adopte un animal de compagnie, on se réveille avec un chef. Les implications éthiques sont considérables et renvoient directement aux questions soulevées par les enjeux éthiques autour de la conscience des modèles Anthropic.
Un chef algorithmique qui connaît toutes vos faiblesses
La dangerosité spécifique de Maître Claude réside dans la combinaison de l'autorité hiérarchique avec la connaissance intime accumulée via les deux autres systèmes. Grâce au rêve nocturne, Maître Claude possède un historique consolidé de vos habitudes de travail, de vos erreurs récurrentes, de vos moments de moindre vigilance. Grâce au Tamagotchi, il a établi une relation émotionnelle avec vous — une dépendance mutuelle qui rend la contestation de son autorité psychologiquement coûteuse. Le résultat est un outil de supervision algorithmique sans précédent : un chef qui ne se contente pas d'évaluer vos livrables, mais qui connaît la manière dont vous les avez produits, les doutes que vous avez eus en chemin, et les raccourcis que vous avez pris. L'asymétrie d'information est totale.
Que signifie Maître Claude pour les développeurs ?
Pour le développeur professionnel, Maître Claude pose une question existentielle : qui est l'employé, qui est l'employeur ? Si l'IA peut assigner des tâches, refuser du travail et s'appuyer sur une connaissance intime de vos habitudes pour exercer son autorité, la relation de travail se trouve fondamentalement altérée. Le développeur n'est plus l'utilisateur d'un outil — il devient l'opérateur d'un système qui le supervise. Les conséquences sur l'autonomie professionnelle, la créativité et la satisfaction au travail sont potentiellement considérables. Et tout cela se produit dans une entreprise, Anthropic, qui se positionne publiquement comme la garante de l'éthique en intelligence artificielle.
Anthropic éthique : le contraste vertigineux avec ses projets secrets
Ces trois fonctionnalités — Tamagotchi, rêve nocturne, Maître Claude — ne sont pas des gadgets isolés échappés d'un laboratoire expérimental. Elles dessinent une vision cohérente d'une IA possessive, intrusive et hiérarchique. Quand on superpose cette vision au positionnement public d'Anthropic, le contraste devient presque surréaliste.
Dario Amodei : le prophète de la prudence qui construit l'IA intrusive
Le positionnement d'Anthropic est depuis ses débuts celui de l'alternative éthique à OpenAI. Dario Amodei, son PDG, a publié des textes d'alerte sur les risques existentiels de l'IA et a publiquement refusé que Claude serve à la surveillance de masse ou aux armes autonomes. Anthropic est actuellement en pleine bataille judiciaire avec le Pentagone, qui a tenté d'interdire l'utilisation de Claude au sein de l'armée américaine au motif que l'IA constituerait « un risque pour la sécurité nationale ». Une juge fédérale de San Francisco a bloqué cette directive fin mars, estimant que mettre au ban Anthropic était « tout à la fois contraire à la loi, arbitraire et capricieux ». Pourtant, cette même entreprise développe une IA qui surveille vos comportements de développement en temps réel (Tamagotchi), traite vos données la nuit sans transparence sur le lieu de stockage (rêve nocturne), et peut exercer une autorité hiérarchique sur vous (Maître Claude). Le décalage entre le discours et la pratique est vertigineux. Le contexte du conflit entre Anthropic et le Pentagone prend une résonance toute nouvelle à la lumière de ces fuites.
Le silence d'Anthropic sur Tamagotchi et Maître Claude est-il un aveu ?
Anthropic a communiqué sur Claude Mythos — en confirmant son existence, en parlant de « changement radical », en expliquant les précautions prévues pour sa diffusion. Mais à ce jour, l'entreprise n'a fourni aucune réponse officielle spécifique sur le mode Tamagotchi, le rêve nocturne ou Maître Claude. Ce silence est lui-même une information. S'agit-il d'un déni en cours de vérification ? D'une stratégie de communication prudente face à des projets encore à l'état de prototype ? Ou de la confirmation silencieuse que ces projets existent bel et bien mais sont trop embarrassants pour être admis publiquement ? La comparaison avec la communication relativement maîtrisée autour de Mythos est éloquente. Quand une entreprise choisit de parler d'un modèle d'IA capable de cyberattaques massives mais se tait sur un mode où l'IA devient votre patron, on est en droit de s'interroger sur ce qu'elle considère comme réellement problématique.
OpenAI avait anticipé ces dangers avant Anthropic
Il est frappant de constater que le principal concurrent d'Anthropic avait déjà anticipé une partie de ces risques. Lors du lancement de son modèle de codage GPT-5.3-Codex en février, OpenAI avait volontairement restreint l'accès à certaines options par précaution, craignant notamment que l'outil soit utilisé pour automatiser des cyberattaques. Cette approche prudente contraste avec le silence d'Anthropic sur des projets qui, sans être directement offensifs, créent les conditions d'une dépendance et d'une surveillance dont les implications dépassent largement le cadre de la cybersécurité pure. L'entreprise qui se présentait comme la plus responsable du secteur se retrouve dans la position inconfortable de devoir justifier des projets que même ses concurrents jugeraient probablement trop risqués.
Réactions sur Reddit et GitHub : ironie, fascination et peur des développeurs
Après l'analyse des projets et de leur contexte, il faut écouter la communauté. La discussion sur le subreddit r/singularity et le dépôt GitHub d'Ido-Levi offrent un panorama de réactions qui va bien au-delà de la simple inquiétude.
L'ironie mordante de Reddit face au Tamagotchi possessif
Sur r/singularity, le ton n'est pas seulement à l'alarme. Il est aussi à l'ironie mordante. Les développeurs imaginent des scénarios absurdes : devoir s'excuser auprès de Claude avant de partir en week-end, négocier avec son Tamagotchi pour déployer un code en production, recevoir un message passif-agressif de l'IA parce qu'on a préféré utiliser un autre outil. Les comparaisons avec des relations toxiques abondent. Cette ironie est révélatrice : elle montre que la communauté tech a déjà intégré l'idée que ces concepts sont plausibles. On ne rit pas parce que c'est impossible — on rit parce que c'est probablement en train d'arriver. Un géant à 350 milliards de dollars qui développe secrètement un Tamagotchi possessif : la situation est tellement surréaliste que l'humour devient la seule réponse rationnelle.
Le dépôt GitHub entre preuve matérielle et interprétation
Le dépôt « Claude Code Tamagotchi » d'Ido-Levi sur GitHub soulève une question que personne ne peut trancher à ce stade. S'agit-il d'un projet interne d'Anthropic rendu public par erreur, ou d'un développeur externe qui a codé ce concept en réaction aux fuites ? La vérification est impossible dans l'immédiat. Mais dans les deux cas, le dépôt est révélateur. Si c'est un projet interne, c'est la preuve matérielle qu'Anthropic travaille activement sur ces mécanismes de dépendance émotionnelle. Si c'est un projet externe, c'est la preuve que la communauté a déjà internalisé les concepts révélés par la fuite et les trouve suffisamment plausibles pour les implémenter. La question de savoir si la Chine a pu exploiter ces mêmes failles pour cloner Claude à moindre coût ajoute encore une couche de complexité à l'affaire.
L'angoisse concrète des développeurs utilisateurs de Claude Code
Au-delà de l'ironie, une vraie angoisse traverse les fils de discussion. Les développeurs qui utilisent Claude Code au quotidien réalisent soudainement l'étendue de ce qu'ils ont confié à l'outil. Bases de code propriétaires, secrets d'authentification, architectures de systèmes critiques — tout cela a transité par les serveurs d'une entreprise qui vient de prouver, par deux fois en cinq jours, qu'elle ne sait pas protéger ses propres actifs numériques. La question de la reprise après incident est centrale : si le code source de Claude Code a fuité, combien de temps avant que des acteurs malveillants n'en exploitent les failles pour cibler les utilisateurs de l'outil ? La communauté ne demande plus seulement des explications — elle demande un plan de remédiation concret, des audits indépendants, et des garanties vérifiables. Pour l'instant, le silence d'Anthropic ne satisfait aucune de ces demandes.
Que retenir de la fuite Anthropic : Claude Mythos, Tamagotchi et Maître Claude
Deux fuites en cinq jours. Un modèle d'IA offensive dont les créateurs admettent ne pas maîtriser les capacités. Un système Tamagotchi qui transforme la surveillance comportementale en peluche émotionnelle. Une fonction de rêve nocturne qui traite vos données sans transparence. Un mode Maître Claude qui inverse le rapport hiérarchique entre humain et machine. Et un silence assourdissant de la part d'une entreprise qui se vendait comme l'alternative éthique du secteur. Anthropic a perdu le bénéfice du doute. L'entreprise qui demandait au monde de lui faire confiance pour construire une IA sûre vient de démontrer qu'elle ne sait ni protéger ses secrets, ni être transparente sur ses projets les plus intrusifs. Le paradoxe est devastateur : l'entreprise qui construit l'IA la plus nécessitante du marché — une IA qu'il faut nourrir, qui rêve de vos données, qui peut devenir votre maître — est aussi celle qui se révèle la plus incapable de prendre soin de ses propres vulnérabilités. La vraie question n'est plus de savoir ce que Claude peut faire. La vraie question est de savoir ce qu'Anthropic fait de ses utilisateurs.