L'intelligence artificielle vit une époque de conquête et d'espionnage industriel d'un genre nouveau. Anthropic, la société qui développe l'assistant Claude, vient de révéler que trois entreprises chinoises d'IA ont orchestré une campagne massive d'extraction de données en utilisant des milliers de comptes frauduleux. Cette révélation jette une lumière crue sur les tensions géopolitiques qui se cachent derrière les outils que nous utilisons quotidiennement.

L'affaire révélée par Anthropic
Trois entreprises chinoises dans le viseur
En février 2026, Anthropic a publié des accusations sans précédent contre trois acteurs majeurs de l'intelligence artificielle chinoise : DeepSeek, Moonshot AI et MiniMax. Ces entreprises, considérées comme les champions nationaux de l'IA en Chine, auraient mené une opération coordonnée pour extraire les connaissances du modèle Claude de manière systématique.
Selon les informations rapportées par le Wall Street Journal et confirmées par CNBC, ces sociétés ont créé environ 24 000 comptes frauduleux pour interagir avec l'IA d'Anthropic. L'ampleur de l'opération est stupéfiante : plus de 16 millions d'échanges auraient été générés dans le but explicite de former leurs propres modèles.

MiniMax se distingue particulièrement dans cette affaire, avec plus de 13 millions d'échanges à son actif. Cette entreprise, soutenue par Alibaba et d'autres géants technologiques chinois, aurait donc été la plus agressive dans cette campagne d'extraction. DeepSeek, connu pour avoir récemment secoué le marché avec son modèle R1, et Moonshot AI complètent ce trio accusé de vol de propriété intellectuelle.
Une campagne croissante en sophistication
Anthropic ne minimise pas la gravité de la situation. Dans une déclaration rapportée par The Guardian, l'entreprise alerte : « Ces campagnes gagnent en intensité et en sophistication. La fenêtre d'action est étroite. » Cette phrase résume parfaitement l'urgence ressentie par les développeurs de modèles américains face à ce qu'ils perçoivent comme une menace existentielle.
Ce qui inquiète particulièrement Anthropic, c'est l'évolution des méthodes employées. Les attaquants ne se contentent plus de requêtes simples : ils ont développé des stratégies élaborées pour maximiser l'extraction d'informations tout en évitant la détection. L'utilisation massive de comptes créés frauduleusement démontre une organisation militaire, probablement soutenue par des ressources considérables.
Le timing de cette révélation n'est pas anodin. OpenAI avait formulé des accusations similaires le mois précédent, suggérant que cette pratique est devenue monnaie courante dans l'industrie. La guerre de l'IA ne se joue pas seulement sur le terrain de l'innovation technologique, mais aussi sur celui de l'espionnage industriel numérique.
La distillation : arme secrète du vol d'IA
Comprendre le mécanisme technique
La technique au cœur de cette affaire s'appelle la distillation de modèles, ou « model distillation » en anglais. Ce procédé, initialement conçu comme une méthode légitime d'optimisation, est devenu l'outil préféré des acteurs cherchant à reproduire les capacités d'une IA sans en payer le prix de développement.
Imaginez un professeur expert qui transmet son savoir à un élève. En posant des milliers de questions et en analysant méticuleusement chaque réponse, l'élève peut progressivement reconstruire une version approximative de l'expertise du professeur. C'est exactement ce qui se passe lors d'une attaque par distillation : on interroge massivement un modèle avancé pour entraîner un autre modèle à reproduire ses comportements.
Le Google Threat Intelligence Group confirme que ces attaques par extraction de modèle constituent une menace réelle et documentée. L'extraction de modèle se produit lorsqu'un adversaire utilise un accès légitime pour sonder systématiquement un modèle d'apprentissage automatique mature, dans le but d'extraire les informations utilisées pour former un nouveau modèle. Cela représente effectivement une forme de vol de propriété intellectuelle.
Pourquoi c'est quasi-impossible à empêcher
La difficulté fondamentale réside dans la nature même des interfaces d'IA. Les modèles comme Claude sont conçus pour être interrogés, pour répondre aux questions des utilisateurs. Comment distinguer une requête légitime d'un utilisateur curieux d'une requête malveillante visant à extraire des données ?
Les attaquants exploitent cette ambiguïté fondamentale. En variant leurs questions, en utilisant différents comptes, en espaçant leurs requêtes, ils peuvent recueillir des quantités massives d'informations sans éveiller les soupçons. La frontière entre exploration légitime et extraction malveillante est extraordinairement floue.
De plus, les contre-mesures techniques ont leurs limites. Restreindre le nombre de requêtes pénalise les utilisateurs légitimes qui ont besoin d'interagir intensivement avec l'IA. Implémenter des vérifications d'identité plus strictes complique l'accès et peut violer les principes de confidentialité que ces entreprises défendent par ailleurs.
Les limites des défenses d'Anthropic
Un jeu du chat et de la souris
Anthropic a mis en place des systèmes de détection pour identifier les comportements suspects. Cependant, l'entreprise reconnaît implicitement l'asymétrie de cette lutte : les attaquants n'ont qu'à trouver une faille, tandis que les défenseurs doivent protéger l'ensemble du système.
La création de 24 000 comptes frauduleux démontre la sophistication des attaquants. Ils ont réussi à contourner les mécanismes d'inscription, probablement en utilisant des services de création de comptes automatisés, des adresses email temporaires, voire des réseaux de machines distribué(e)s géographiquement.
Cette affaire rappelle d'autres violations de données récentes qui ont touché des systèmes soi-disant sécurisés. Le piratage FICOBA qui a exposé 1,2 million de comptes bancaires illustre parfaitement comment même les infrastructures critiques peuvent être compromises par des attaquants déterminés et bien organisés.
Le dilemme de l'accessibilité
Anthropic et ses concurrents font face à un dilemme cornélien. D'un côté, ils veulent rendre leurs IA accessibles au plus grand nombre, car c'est ainsi qu'ils collectent des données d'utilisation précieuses et construisent leur réputation. De l'autre, cette accessibilité même crée la vulnérabilité qu'exploitent les attaquants.
Fermer les portes serait contre-productif. Les modèles d'IA s'améliorent grâce aux interactions avec des utilisateurs réels, qui posent des questions imprévues et révèlent les faiblesses du système. Sans cette exposition au monde réel, les modèles stagneraient.
La solution n'est donc pas dans le verrouillage total, mais dans une détection plus intelligente des comportements malveillants. Anthropic investit probablement massivement dans cette direction, mais la course technologique oppose des adversaires aux ressources comparables.
La guerre technologique États-Unis-Chine
Un contexte de rivalité stratégique
Cette affaire s'inscrit dans une guerre technologique plus large entre les États-Unis et la Chine. L'intelligence artificielle est devenue un enjeu stratégique de premier plan, comparable à ce que fut la course à l'armement nucléaire au XXe siècle.
Les États-Unis ont déjà imposé des restrictions sur l'exportation de puces de haute performance vers la Chine, cherchant à limiter les capacités de calcul nécessaires à l'entraînement des modèles les plus avancés. Cependant, ces restrictions ne peuvent empêcher l'accès aux modèles via leurs interfaces publiques.

La Chine, de son côté, investit massivement dans l'IA, avec le soutien explicite du gouvernement. DeepSeek, Moonshot AI et MiniMax bénéficient toutes d'un écosystème favorable, avec accès à des capitaux importants et à un marché intérieur gigantesque. L'accusation d'Anthropic suggère que certaines ont choisi des raccourcis questionnables pour rattraper leur retard.
Les précédents accablants
L'accusation d'Anthropic n'est pas isolée. OpenAI a formulé des allégations similaires le mois précédent, indiquant un pattern systématique. Cette coordination temporelle suggère que l'industrie américaine de l'IA a décidé de porter l'affaire sur la place publique plutôt que de tenter de la gérer discrètement.
Les entreprises chinoises visées n'ont pas encore répondu de manière détaillée à ces accusations. Le silence ou les démentis génériques pourraient être interprétés comme une reconnaissance implicite. Cependant, sans preuves publiques irréfutables, le doute reste permis.
Les régulateurs américains et européens suivent cette affaire avec attention. La question de la protection de la propriété intellectuelle des modèles d'IA n'a pas encore de réponse juridique claire. Les lois actuelles sur le copyright, conçues pour des œuvres humaines, s'appliquent mal à des créations algorithmiques.
Vos données personnelles en jeu ?
Ce que visent réellement les attaquants
Il est crucial de comprendre que les attaques par distillation ne ciblent pas les conversations privées des utilisateurs. Les attaquants cherchent à extraire les connaissances encodées dans le modèle, c'est-à-dire ce que Claude a appris pendant son entraînement, et non les échanges individuels.
Cependant, cette distinction ne doit pas rassurer complètement. Les modèles d'IA intègrent parfois des informations provenant de leurs interactions avec les utilisateurs. Si vous avez partagé des informations confidentielles avec Claude, celles-ci ont pu théoriquement influencer le modèle, bien que les entreprises affirment prendre des mesures pour éviter ce type de contamination.
Les termes de service d'Anthropic précisent comment les données d'utilisation sont traitées. Les utilisateurs sont normalement informés que leurs interactions peuvent servir à améliorer le modèle. Mais rares sont ceux qui lisent véritablement ces conditions avant d'utiliser un service gratuit.
Les implications pour l'utilisateur lambda
Pour l'utilisateur moyen, cette affaire soulève des questions de confiance. Peut-on continuer à utiliser Claude, ChatGPT ou d'autres assistants IA sans craindre que nos interactions servent à former des concurrents ? La réponse nuancée est que le risque existe mais reste faible pour les usages courants.
Les entreprises soumises à des réglementations strictes sur la confidentialité des données doivent être particulièrement vigilantes. L'utilisation d'outils d'IA externes pour traiter des données sensibles comporte des risques inhérents, indépendamment des attaques par distillation.
Cette affaire pourrait accélérer le développement de solutions d'IA hébergées localement ou de modèles dont l'entraînement et l'exécution se font entièrement sur les serveurs du client. La confidentialité redevient un argument commercial majeur dans l'industrie de l'IA.
Les réponses possibles face à cette menace
Pistes réglementaires et légales
Les législateurs américains et européens planchent sur des cadres juridiques pour protéger la propriété intellectuelle des modèles d'IA. Le Copyright Office américain a déjà statué que les œuvres créées par des IA ne sont pas protégeables par le copyright, mais qu'en est-il des modèles eux-mêmes ?
La question est complexe. Un modèle d'IA n'est ni une œuvre littéraire, ni un brevet, ni un secret commercial au sens classique. Pourtant, il représente un investissement considérable en temps de calcul, en données et en expertise humaine. Un nouveau cadre juridique s'impose pour définir et protéger cet actif.
Les sanctions économiques pourraient être une arme. Si les entreprises chinoises visées sont formellement reconnues coupables de vol de propriété intellectuelle, elles pourraient faire l'objet de restrictions commerciales aux États-Unis et en Europe. Cependant, ces mesures seraient difficiles à appliquer pour des services numériques accessibles mondialement.
Solutions techniques et défis
Sur le plan technique, plusieurs approches sont explorées pour contrer la distillation. Le watermarking des réponses permettrait théoriquement de tracer l'origine des connaissances utilisées par un modèle suspect. Si un modèle chinois produit des réponses portant la signature invisible de Claude, la preuve du vol serait établie.
Une autre approche consiste à introduire des erreurs subtiles ou des biais spécifiques dans les réponses, qui seraient reproduits par tout modèle entraîné sur ces données. Cette technique, appelée « poisoning », est cependant controversée car elle dégrade l'expérience des utilisateurs légitimes.
L'authentification renforcée des utilisateurs représente probablement la solution la plus immédiate. En limitant les possibilités de création de comptes multiples et en vérifiant plus rigoureusement les identités, Anthropic pourrait réduire drastiquement les attaques. Mais cette approche heurte les principes de confidentialité et d'accessibilité défendus par l'entreprise.
Conclusion
L'accusation d'Anthropic contre DeepSeek, Moonshot AI et MiniMax marque un tournant dans l'histoire de l'intelligence artificielle. Pour la première fois, le vol de propriété intellectuelle d'IA est documenté à grande échelle, avec des chiffres stupéfiants : 16 millions de requêtes, 24 000 comptes frauduleux, trois entreprises chinoises accusées.

Cette affaire révèle la fragilité des modèles économiques basés sur l'accessibilité ouverte. Comment protéger des actifs dont la valeur réside dans leur capacité à répondre aux questions ? La distillation représente un défi technologique et juridique sans précédent, pour lequel aucune solution satisfaisante n'existe encore.
La guerre de l'IA entre les États-Unis et la Chine passe par un nouveau terrain : celui de l'espionnage numérique. Les entreprises américaines devront probablement durcir leurs accès, au détriment de l'expérience utilisateur. Les consommateurs que nous sommes devront être plus conscients des enjeux cachés derrière chaque conversation avec un assistant virtuel.
La fenêtre d'action est étroite, comme le dit Anthropic. Les mois à venir détermineront si l'industrie de l'IA peut développer des mécanismes de protection efficaces, ou si la course à l'innovation sera définitivement parasitée par le vol de propriété intellectuelle.