Un écran d'ordinateur affichant un visage humain généré par IA en train de parler, avec des lignes de code et des fenêtres logicielles floues en arrière-plan, éclairage bleuté
Tech & Gaming

Arnaque « Bonjour Patron » : le logiciel deepfake chinois en temps réel

Le logiciel chinois Haotian AI vendu sur Telegram permet de voler votre visage en temps réel lors d'appels vidéo, causant 863 millions d'euros de pertes en 2025.

As-tu aimé cet article ?

En mars 2019, un dirigeant britannique reçoit un appel de son « patron allemand ». La voix est parfaite, l'accent juste, les intonations fidèles. Il effectue un virement de 220 000 euros. L'interlocuteur était une intelligence artificielle. Sept ans plus tard, la menace a changé d'échelle : un logiciel chinois vendu sur Telegram permet désormais de voler votre visage en temps réel lors d'un appel vidéo. Les pertes liées aux deepfakes ont atteint 863 millions d'euros en 2025.

Un écran d'ordinateur affichant un visage humain généré par IA en train de parler, avec des lignes de code et des fenêtres logicielles floues en arrière-plan, éclairage bleuté
Un écran d'ordinateur affichant un visage humain généré par IA en train de parler, avec des lignes de code et des fenêtres logicielles floues en arrière-plan, éclairage bleuté

Haotian AI : le logiciel chinois qui transforme des inconnus en vos proches

Le test qui glace le sang : « Oh my god » — un journaliste voit son visage sur le corps d'un inconnu

Les journalistes de 404 Media mettent la main sur une copie de Haotian AI. Le logiciel est vendu sur des chaînes Telegram éphémères, qui disparaissent après chaque vague de vente. L'équipe l'installe sur un simple PC portable gamer, un modèle que l'on trouve dans n'importe quel magasin d'électronique. Pas besoin de serveur cloud ni de carte graphique professionnelle à plusieurs milliers d'euros.

Joseph Cox lance l'application et pointe sa webcam vers son visage. En quelques secondes, l'écran affiche son propre visage — mais sur le corps d'un autre journaliste assis à côté de lui. La transformation est si rapide et si fluide qu'il en reste bouche bée. « Oh my god. Oh my god », répète-t-il en voyant ses expressions faciales reproduites en temps réel sur un autre visage.

Le logiciel utilise une seule photo de la cible pour générer un masque 3D animé. Les mouvements des sourcils, les clignements d'yeux, les sourires et les hochements de tête sont synchronisés avec une précision troublante. La qualité du rendu n'est pas parfaite — un observateur attentif peut repérer quelques artefacts — mais elle suffit à tromper un œil non averti lors d'un appel professionnel.

Un studio de deepfake dans une clé USB : les coulisses de Haotian AI

Haotian AI fonctionne sur un modèle économique que les experts appellent le « Deepfake-as-a-Service » (DaaS). Le logiciel est vendu entre 200 et 500 dollars selon les versions, avec des mises à jour régulières proposées sur les mêmes canaux Telegram. Les vendeurs disparaissent et réapparaissent sous de nouveaux pseudos après chaque opération.

L'équipe de développement derrière Haotian AI ne cache pas son ambition. Sur les messages promotionnels relayés par le blog spécialisé Frank on Fraud, elle se vante de disposer de « centaines de programmeurs et des dizaines de serveurs ». Cette infrastructure, modeste comparée à celle des géants de la tech, suffit à alimenter un logiciel capable de ruiner des milliers de victimes.

Ce qui rend Haotian AI particulièrement dangereux, c'est son accessibilité. Avant 2018, produire une minute de deepfake coûtait entre 255 et 17 000 euros et nécessitait des compétences techniques avancées. Aujourd'hui, le même résultat coûte quelques euros et s'obtient en quelques clics. Le chercheur Fred Heiding, de l'université Harvard, résume la situation dans un entretien à BFMTV : « Presque tout le monde peut s'en servir. » La barrière à l'entrée a volé en éclats.

La cible privilégiée : les entreprises et leurs employés

Les escrocs ciblent en priorité les services financiers des entreprises. Une simple photo du PDG publiée sur le site de l'entreprise suffit à Haotian AI pour créer un masque crédible. L'employé reçoit un appel Teams ou Zoom, voit le visage de son supérieur, entend sa voix — et exécute un virement.

Le mode opératoire est rodé. L'escroc se fait passer pour le patron, prétexte une urgence, un rachat confidentiel, une pénalité imminente. La pression temporelle empêche la victime de vérifier. En 2025, huit cas de fraude au CEO par deepfake ont été recensés, pour un préjudice total de 77 millions d'euros.

863 millions d'euros : pourquoi le DaaS explose en 2025

863 millions d'euros et 700 % d'augmentation en France : les chiffres qui donnent le vertige

Les pertes liées aux deepfakes ont atteint 863 millions d'euros en 2025, selon une étude de Surfshark relayée par CIO Online. Depuis 2023, le cumul dépasse 1,33 milliard d'euros. La France est particulièrement touchée : entre le premier trimestre 2024 et le premier trimestre 2025, les tentatives d'arnaque par deepfake ont bondi de 700 %, selon les données de Sumsub. Au Royaume-Uni, la hausse atteint 900 % ; en Allemagne, 1 100 %.

Ces chiffres ne représentent que la partie visible de l'iceberg. Interpol estime que les pertes mondiales liées aux fraudes assistées par IA atteignent 442 milliards de dollars en 2025. Les méthodes traditionnelles de fraude rapportent en moyenne 4,5 fois moins que celles qui utilisent l'intelligence artificielle.

Le coût de production d'une minute de deepfake est passé de 255 euros à 2 euros en quelques années. Cette chute vertigineuse explique l'explosion du nombre d'incidents : 580 cas recensés au premier semestre 2025, contre 150 pour l'ensemble de l'année 2024.

Des camps d'arnaque aux faux recrutements : le catalogue complet du DaaS français

Le deepfake ne sert pas qu'à imiter un patron. Les escrocs ont développé plusieurs vecteurs d'attaque qui ciblent les entreprises et les particuliers.

La fraude au CEO reste la plus spectaculaire. Un faux dirigeant appelle un employé du service financier et lui ordonne un virement urgent. En 2025, huit cas de ce type ont été recensés, pour un préjudice total de 77 millions d'euros. L'année précédente, six cas avaient causé 109 millions d'euros de pertes.

L'arnaque au recrutement est devenue la plus courante. Les victimes reçoivent une invitation à un entretien d'embauche en visioconférence. Le « recruteur » — en réalité un deepfake généré par Haotian AI — pose des questions, hoche la tête, sourit. Après l'entretien, un faux contrat est envoyé, accompagné d'une demande de virement pour frais de dossier ou d'équipement. Selon Surfshark, ces arnaques ont coûté 765 millions d'euros en 2025.

Le « pig-butchering » est une arnaque sentimentale industrialisée. Les escrocs, souvent basés dans des camps spécialisés en Asie du Sud-Est, construisent une relation amoureuse virtuelle avec leur cible. Grâce à Haotian AI, ils peuvent désormais montrer un visage crédible lors d'appels vidéo. Ces camps, situés principalement au Myanmar et au Cambodge, utilisent le logiciel comme outil de production de masse.

L'industrialisation de la tromperie : des chaînes de production criminelles

Les camps d'arnaque d'Asie du Sud-Est fonctionnent comme des usines. Des milliers d'employés, souvent victimes de traite humaine, travaillent en équipes pour escroquer des victimes du monde entier. Haotian AI est devenu leur outil principal.

Le logiciel permet de standardiser la production de deepfakes. Un opérateur peut gérer plusieurs conversations simultanément, en changeant de visage selon la cible. La même technologie qui sert à voler des millions d'euros aux entreprises sert aussi à soutirer des économies à des particuliers via des arnaques sentimentales.

De l'appel vocal de 2019 à la vidéo HD de 2026 : la révolution deepfake

L'affaire du PDG britannique (2019) : la première claque sonore

En mars 2019, un dirigeant d'une entreprise énergétique britannique reçoit un appel de son « patron allemand ». La voix est parfaite : l'accent, les intonations, le rythme. Le faux patron lui ordonne d'effectuer un virement urgent de 220 000 euros sur un compte en Hongrie. La victime obéit.

Le lendemain, un second appel réclame un nouveau virement. Cette fois, des détails clochent : le numéro provient d'Autriche, pas d'Allemagne. Trop tard. L'argent a déjà transité par le Mexique avant d'être dispersé sur des dizaines de comptes.

Cet incident, rapporté par Le Monde et le Wall Street Journal, est l'un des premiers cas documentés de fraude par deepfake vocal. À l'époque, l'affaire faisait figure d'exception. Aujourd'hui, ce mode opératoire est devenu la norme — mais la voix seule ne suffit plus aux escrocs.

Le saut technologique : de la voix à la vidéo interactive

Entre 2019 et 2023, les deepfakes vocaux ont proliféré. Des logiciels comme Lyrebird permettaient de cloner une voix à partir de quelques secondes d'enregistrement. Les escrocs pouvaient appeler leurs victimes, mais ne pouvaient pas montrer de visage.

Haotian AI comble cette lacune. Le logiciel ajoute une dimension visuelle en temps réel. L'escroc peut désormais montrer un visage qui correspond à la voix. La victime voit son « patron » lui parler, avec les expressions faciales appropriées. La confiance visuelle renforce la crédibilité de l'appel.

Pourquoi le vrai changement, c'est le temps réel : la fin du « voir c'est croire »

La différence fondamentale entre un deepfake pré-enregistré et un deepfake en temps réel tient en un mot : l'interactivité. Avec une vidéo pré-enregistrée, l'escroc ne peut pas répondre aux questions, adapter son discours ou réagir aux imprévus. Un simple test — « Pouvez-vous me rappeler notre dernier échange ? » — suffit à démasquer l'imposture.

Haotian AI change la donne. Le logiciel capture le visage de l'escroc en direct, le transforme en celui de la cible, et retransmet le résultat à la webcam virtuelle. L'escroc voit la réaction de sa victime et peut ajuster son comportement en conséquence. Il peut sourire, hocher la tête, froncer les sourcils. Le cerveau humain, habitué depuis des millénaires à faire confiance à ce qu'il voit et entend, n'a plus aucun point d'ancrage fiable.

Ce phénomène touche aussi les adolescents. Dans notre article sur les deepfakes au lycée, nous montrons comment la même technologie sert à humilier et à harceler des élèves, prouvant que le problème est générationnel.

Appel Zoom, Teams ou WhatsApp : les 5 signes qui trahissent un deepfake

Lèvres désynchronisées et regard figé : les micro-défauts qui sauvent vos finances

Les deepfakes en temps réel ne sont pas encore parfaits. Voici les indices techniques à surveiller lors d'un appel suspect.

Le délai de réponse. Un décalage anormal entre la question posée et la réponse peut trahir le temps de calcul du logiciel. Si votre interlocuteur met une demi-seconde de plus que d'habitude à réagir, méfiez-vous.

Les mouvements oculaires. Le regard « fixe » ou des clignements trop réguliers, presque mécaniques, sont un signe classique. Les humains clignent des yeux de manière irrégulière ; un deepfake a tendance à uniformiser ce rythme.

Les bords flous. Un halo ou une différence de netteté entre le visage et le cou, les cheveux ou les oreilles indique souvent un masque numérique. Le logiciel a du mal à gérer les transitions entre le visage transformé et le corps réel.

L'audio trop parfait. Les escrocs qui utilisent Haotian AI filtrent souvent leur environnement réel. Si la voix de votre interlocuteur est anormalement claire, sans aucun bruit de fond, alors que vous l'appelez dans son bureau habituellement bruyant, posez-vous des questions.

Le test de la rotation. Demandez à votre interlocuteur de tourner la tête sur le côté. Si le visage se déforme, si l'arrière-plan reste anormalement stable ou si des artefacts apparaissent, vous avez affaire à un deepfake.

Le test du mot de passe : la parade la plus simple (et la plus oubliée)

La meilleure défense contre les deepfakes ne nécessite aucun logiciel, aucune mise à jour, aucun abonnement. C'est un simple mot de passe convenu à l'avance entre collègues ou membres d'une même famille.

Le principe est simple : chaque équipe ou chaque famille choisit une phrase ou un mot de vérification. Par exemple : « Quel était le nom du premier chat du patron ? » ou « Quelle est la couleur du dossier du projet X ? ». Si l'interlocuteur ne connaît pas la réponse, raccrochez immédiatement et signalez l'incident.

Cette méthode, recommandée par le chercheur Fred Heiding, est gratuite, instantanée et ne dépend d'aucune technologie. Elle repose sur ce que les humains font de mieux : la confiance partagée et la mémoire commune. Dans un monde où les modèles progressent plus vite que les experts ne l'imaginent, la vérification humaine reste en tête de la course.

Les limites des solutions techniques actuelles

Certaines entreprises commencent à déployer des solutions de « liveness detection » — des logiciels qui analysent en temps réel si un visage est bien vivant. Ces outils repèrent les micro-mouvements impossibles à reproduire par un deepfake.

Mais ces solutions ont un coût et ne sont pas encore généralisées. Zoom, Teams et WhatsApp n'ont pas intégré ce type de détection dans leurs versions grand public. En attendant, la vérification humaine reste la seule protection fiable.

700 % d'attaques en un an : pourquoi les autorités peinent à endiguer le fléau

Le flou juridique : un logiciel chinois défie les lois européennes

Haotian AI est développé en Chine, vendu via Telegram dont les serveurs sont souvent basés à l'étranger, et utilisé par des réseaux implantés en Asie du Sud-Est pour escroquer des Européens. Chaque maillon de cette chaîne criminelle échappe à la juridiction des pays victimes.

Les demandes de la CNIL ou d'Interpol se heurtent à des obstacles diplomatiques et techniques. Pour obtenir des preuves stockées sur un serveur au Myanmar ou au Cambodge, il faudrait une coopération judiciaire internationale qui prend des mois, voire des années. Pendant ce temps, les escrocs changent de chaîne Telegram, de nom de domaine et de serveur.

L'OCLCTIC, l'office anti-cybercriminalité français, peine à suivre le rythme. Les victimes françaises contactées par INFO.FR rapportent que leurs signalements restent souvent sans suite. Les preuves numériques disparaissent avec les serveurs, et les auteurs ne sont jamais identifiés.

WhatsApp, Teams, Signal : les messageries impuissantes face au deepfake en direct

Les plateformes de visioconférence sont actuellement incapables de bloquer ce type d'attaque. La raison est technique : le deepfake est généré en local sur le PC de l'escroc, avant d'être envoyé à la webcam virtuelle. L'application de visioconférence ne voit qu'un flux vidéo « normal », identique à celui d'une webcam standard.

Aucun système de détection embarqué ne peut actuellement faire la différence entre un visage réel et un visage généré par Haotian AI. Des solutions de « liveness detection » existent, mais elles ne sont pas encore déployées dans les clients lourds comme Zoom, Teams ou WhatsApp.

Les plateformes elles-mêmes reconnaissent leur impuissance. Contactées par les journalistes de 404 Media, elles indiquent travailler sur des solutions, sans donner de calendrier précis. En attendant, les escrocs continuent d'exploiter cette faille béante.

Le défi de la coopération internationale

Les réseaux criminels qui utilisent Haotian AI sont basés dans des zones où l'État de droit est fragile. Les camps d'arnaque du Myanmar et du Cambodge opèrent souvent avec la protection de groupes armés locaux. Les autorités de ces pays n'ont ni la volonté ni les moyens de lutter contre ces installations.

Les tentatives de coordination internationale se heurtent à des différences juridiques majeures. La Chine, où le logiciel est développé, ne considère pas Haotian AI comme illégal tant qu'il n'est pas utilisé sur son territoire. Les serveurs Telegram basés dans des paradis numériques échappent à toute saisie.

Mot de passe familial et regard dubitatif : les nouvelles armes contre l'arnaque

Repenser la confiance : le deepfake comme nouveau phishing universel

Il y a vingt ans, le phishing par email a fait ses premières victimes. Tout le monde cliquait sur les liens douteux, ouvrait les pièces jointes suspectes. Aujourd'hui, le réflexe est acquis : on vérifie l'expéditeur, on survole le lien, on se méfie des demandes urgentes.

Le deepfake impose une révolution similaire. Il faut que le réflexe « Je vérifie par un autre canal avant d'agir » devienne aussi instinctif que celui de ne pas cliquer sur un lien inconnu. L'arnaque « Bonjour Patron » est le nouveau « Faux président » des années 2020 — mais en version vidéo, en temps réel, et avec un réalisme qui défie nos sens.

Les réflexes anti-arnaque à instaurer dans votre entreprise et votre famille

Instaurer une phrase de sécurité. Chaque équipe ou chaque famille choisit un mot de passe partagé, utilisé uniquement pour vérifier l'identité lors d'une demande sensible. Cette phrase ne doit jamais être communiquée par email ou par message écrit.

Le rappel systématique. Si un supérieur, un collègue ou un proche vous demande de l'argent, des données confidentielles ou un accès à un système, raccrochez immédiatement. Rappelez-le sur son numéro personnel connu, ou envoyez-lui un message sur un autre canal. Si c'est vraiment lui, il comprendra votre prudence.

Former son entourage. Partagez cet article avec vos collègues et votre famille. Le phénomène des deepfakes ne touche pas que les entreprises : les adolescents y sont confrontés via les réseaux sociaux, comme le montre notre enquête sur les deepfakes au lycée. L'éducation au deepfake est un enjeu générationnel.

Créer une culture du doute sain. Dans une entreprise, chaque demande de virement urgent doit déclencher un protocole de vérification. Pas d'exception, pas de « c'est le patron, je le reconnais ». La procédure protège l'employé autant que l'entreprise.

Conclusion

L'arnaque « Bonjour Patron » cristallise une crise de la confiance numérique. En quelques années, la technologie est passée d'une curiosité de laboratoire à une arme de fraude massive, accessible à tous pour quelques centaines d'euros. Les pertes se comptent en centaines de millions d'euros, et les autorités peinent à endiguer un fléau qui traverse les frontières plus vite que les mandats d'arrêt.

Face à des deepfakes de plus en plus parfaits, la seule parade fiable reste humaine. Un mot de passe convenu à l'avance, un rappel systématique, une culture du doute sain : ces réflexes simples et gratuits sont aujourd'hui les meilleures armes contre une industrie criminelle qui ne cesse de progresser. La technologie évolue, mais la vigilance collective reste notre dernier rempart.

As-tu aimé cet article ?

Questions fréquentes

Comment fonctionne le logiciel deepfake Haotian AI ?

Haotian AI est un logiciel chinois vendu sur Telegram qui permet de créer un masque 3D animé d'une cible à partir d'une seule photo. Il capture le visage de l'escroc en direct et le transforme en temps réel en celui de la cible, synchronisant expressions faciales et mouvements.

Quels sont les signes d'un deepfake en appel vidéo ?

Les signes incluent un délai de réponse anormal, un regard figé avec des clignements trop réguliers, des bords flous entre le visage et le cou, une voix anormalement claire sans bruit de fond, et une déformation du visage lors d'une rotation de la tête.

Quel est le montant des pertes liées aux deepfakes en 2025 ?

Selon l'article, les pertes liées aux deepfakes ont atteint 863 millions d'euros en 2025. En France, les tentatives d'arnaque par deepfake ont bondi de 700 % entre le premier trimestre 2024 et le premier trimestre 2025.

Comment se protéger d'une arnaque deepfake au PDG ?

La meilleure parade est d'instaurer un mot de passe convenu à l'avance entre collègues ou en famille, utilisé uniquement pour vérifier l'identité lors d'une demande sensible. Il faut également rappeler systématiquement la personne sur son numéro personnel connu avant d'effectuer un virement.

Sources

  1. « Deepfake » : dupée par une voix synthétique, une entreprise se fait dérober 220 000 euros · lemonde.fr
  2. 404media.co · 404media.co
  3. bfmtv.com · bfmtv.com
  4. cio-online.com · cio-online.com
  5. frankonfraud.com · frankonfraud.com
pro-gamer
Théo Verbot @pro-gamer

L'esport, c'est ma vie. Je suis tous les tournois, je connais les rosters par cœur, je peux t'expliquer la méta actuelle de n'importe quel jeu compétitif. Étudiant en marketing du sport à Paris, je rêve de devenir commentateur esport professionnel. En attendant, je cast des tournois amateurs sur Twitch et j'analyse les matchs comme d'autres analysent le foot. Le gaming, c'est du sport. Point.

271 articles 0 abonnés

Commentaires (2)

Connexion pour laisser un commentaire.

Chargement des commentaires...

Articles similaires