Fin février 2026, la direction du lycée de Lake Zurich, dans l'Illinois, découvrait avec stupeur que plusieurs de ses élèves avaient utilisé l'intelligence artificielle pour générer des images à nu de leurs camarades féminines. L'établissement a aussitôt qualifié la situation d'« incident troublant » et contacté la police ainsi que l'ensemble des familles concernées. La formule, presque policée, masquait un chaos bien réel. À quelques dizaines de kilomètres de là, le même cauchemar se jouait dans un autre lycée de l'État. Stevie Hyder, élève au lycée Richmond Burton, avait posé innocemment pour une photo prise avant un bal de fin d'année. Cette image, comme des milliers d'autres publiées chaque jour par des adolescents du monde entier, a été récupérée, traitée par une IA et transformée en image pornographique avant d'être diffusée parmi les camarades de classe. Quand sa mère a appris l'existence de ces images, elle a découvert que sa fille était « la 22e sur la liste » des victimes répertoriées. Stevie elle-même a témoigné de son traumatisme : « Nous nous sentons extrêmement violés. Après avoir vu ma photo personnellement, je me suis sentie tellement malade. » Ce qui frappe dans ces affaires, c'est l'effet de proximité immédiate. Il ne s'agit pas d'un scénario de science-fiction éloigné. C'est une photo de bal de lycée, comme celles que des millions de jeunes publient chaque semaine sur leurs réseaux sociaux.

Une seule photo publique suffit pour tout déclencher
Rien de clandestin dans le point de départ de ce drame. Pas de piratage de compte, pas de vol de téléphone, pas de webcam piratée dans une chambre. La photo utilisée pour fabriquer le deepfake de Stevie Hyder avait été publiée par l'adolescente elle-même, sur ses réseaux sociaux, comme n'importe quel autre cliché de soirée. C'est précisément cette banalité qui rend le phénomène terrifiant.
Le fil entre publication ordinaire et destruction sociale
Chaque adolescente qui poste une photo en tenue de soirée, en maillot sur la plage, ou simplement en tenue décontractée, fournit un matériel potentiel pour ces outils. La frontière entre une publication ordinaire et la création d'une image sexuelle sans consentement ne tient plus qu'à trente secondes de traitement algorithmique. Les jeunes vivent avec l'illusion que ce qu'ils partagent dans un cadre privé ou semi-privé reste maîtrisé. Les deepfakes pulvérisent cette illusion en un instant.
L'illusion de maîtrise sur ses propres images
Cette fausse impression de contrôle est renforcée par les paramètres de confidentialité des réseaux sociaux. Une photo partagée uniquement avec ses « amis » ou ses « abonnés proches » semble protégée. Mais il suffit qu'une seule personne de ce cercle restreint fasse une capture d'écran ou télécharge l'image pour que le verrou saute. La victime n'a commis aucune erreur de sécurité, aucune négligence manifeste. Elle a simplement fait ce que tout le monde fait. C'est toute la brutalité du système : la normalité devient la vulnérabilité.
La photographie de groupe comme catalogue de cibles
Les photos de groupe, particulièrement prisées lors des bals de fin d'année ou des sorties entre amis, aggravent encore le problème. Une seule image de groupe contient plusieurs visages, offrant au malveillant un catalogue de cibles potentielles sans avoir à fouiller les profils individuels. C'est précisément ce mécanisme qui explique comment Stevie Hyder a pu être « la 22e sur la liste » : une photo collective, un traitement par lot, et des dizaines de victimes en une seule opération.
La réponse paralysée des établissements scolaires
La déclaration officielle du lycée de Lake Zurich, rapportée par ABC7 Chicago, illustre le décalage entre la gravité des faits et la capacité des institutions à y répondre. L'établissement a affirmé que « de telles actions constituent une violation fondamentale des valeurs que nous travaillons à inculquer à nos élèves chaque jour. » Le terme « incident troublant », utilisé dans les communications initiales, en dit long sur la difficulté des administrations scolaires à nommer le problème avec la justesse nécessaire.
Le vocabulaire institutionnel face à la réalité du préjudice
On parle d'images pornographiques fabriquées sans le consentement de mineures, diffusées dans un environnement scolaire. Le vocabulaire institutionnel, conçu pour gérer des incidents de discipline classiques, semble totalement dépassé par la nature du problème. « Incident troublant » ne rend pas compte de la violence subie. Ce n'est pas une bagarre dans la cour ni une tricherie à un contrôle. C'est une agression sexuelle numérique perpétrée à l'échelle d'un établissement.
L'absence de protocole face à l'inédit
Les directions découvrent l'ampleur du phénomène en même temps que les familles, sans protocole éprouvé, sans formation spécifique, sans savoir exactement qui prévenir ni comment. Faut-il convoquer chaque élève individuellement ? Annoncer l'affaire en classe ? Prévenir toutes les familles y compris celles dont les enfants ne sont pas directement concernés ? Aucun manuel de procédure ne répond à ces questions, car la situation est trop récente pour avoir été intégrée aux plans de crise des établissements.
La double peine pour les victimes
Quand l'institution ne sait pas comment réagir, elle produit souvent une réponse minimaliste qui aggrave le sentiment d'abandon chez les victimes. Un mail aux familles, une réunion d'information, parfois aucune communication explicite pour « ne pas dramatiser ». Pour l'adolescente dont l'image circule, ce silence administratif est vécu comme une forme de complicité par inaction. Elle comprend que l'école ne sait pas la protéger, et que c'est donc à elle seule de gérer un traumatisme qui la dépasse entièrement.
Une photo, un bot Telegram, trente secondes : la mécanique du deepfake nudifié
Une fois la photo source identifiée, le processus qui mène à l'image pornographique est d'une simplicité déconcertante. Les outils les plus utilisés par les adolescents pour créer des deepnudes ne sont pas des logiciels complexes réservés à des experts en informatique. Ce sont des applications gratuites ou des bots hébergés sur Telegram, trouvés en quelques recherches génériques. Le processus se décompose en trois étapes : uploader la photo de la victime, patienter le temps du traitement par l'IA — souvent moins de trente secondes — puis télécharger le résultat.
Zéro compétence technique requise
Le décalage entre la simplicité technique de l'acte et sa gravité humaine est vertigineux. Un élève peut, pendant une pause déjeuner, depuis son smartphone, détruire la réputation et la dignité d'une camarade. Aucune compétence technique n'est requise. Aucune barrière ne se lève. L'outil fait tout seul, de manière automatique, et produit un résultat suffisamment convaincant pour causer un dommage réel et durable à la personne représentée.
Des outils accessibles sans aucune vérification d'âge
Ces outils, souvent désignés sous le terme de « deepnude bots », circulent librement sur Telegram et sur des sites web éphémères qui changent régulièrement de domaine pour échapper aux blocages. Aucune vérification d'identité n'est exigée. Aucune confirmation d'âge n'est demandée. Un collégien de treize ans y accède aussi facilement qu'à un filtre de beauté sur un réseau social. Les plateformes de messagerie, qui pourraient en théorie détecter et bloquer ces bots, peinent à contenir leur prolifération. Dès qu'un bot est supprimé, deux autres apparaissent sous des noms légèrement différents.
Un marché souterrain structuré
Le modèle économique de ces outils repose souvent sur un accès gratuit limité, suffisant pour générer quelques images, suivi d'options payantes pour un usage illimité. Le passage de la gratuité à la monétisation montre qu'il existe un marché structuré autour de ces pratiques, alimenté par une demande suffisante pour rendre l'activité rentable. Ce ne sont pas des outils marginaux créés par des hobbyistes. C'est une industrie souterraine qui génère des revenus en exploitant la curiosité et la cruauté des adolescents.
Le faux sentiment d'impunité chez les auteurs
L'analyse du raisonnement des auteurs révèle un mécanisme psychologique central dans la compréhension du phénomène. Puisque l'image est générée par une intelligence artificielle et ne montre pas un corps réel, de nombreux adolescents minimisent spontanément la portée de leur acte. Comme l'a montré l'affaire d'Almendralejo en Espagne, où quinze adolescents de treize à quinze ans ont été condamnés mi-2024 après avoir utilisé des applications facilement trouvables en ligne pour créer des images pornographiques de leurs camarades, y compris des voisines et des membres de leur famille, ce phénomène dépasse largement les frontières françaises ou américaines.
« Ce n'est pas vrai, donc ce n'est pas grave »
Le raisonnement se résume souvent à cette phrase : puisque l'image n'est pas une vraie photographie, elle ne peut pas causer de vrai dommage. Cette perception fausse transforme un délit pénal en « blague » entre camarades. Les auteurs ne se sentent pas coupables de voyeurisme ni d'agression sexuelle, car leur geste s'est limité à cliquer sur un bouton. Ils occultent totalement la dimension de violence que subit la victime, qui elle voit son visage associé à une image sexuelle diffusée dans son cercle social le plus proche.
La culture du shock humor comme déculpabilisation
Ce déni de réalité est renforcé par la culture de la « blague » en ligne, où le shock humor est banalisé et où le franchissement de limites est perçu comme un jeu plutôt que comme une infraction. Les adolescents baignent dans un environnement numérique où les contenus les plus transgressifs génèrent le plus d'engagement. Le deepfake sexuel s'inscrit dans cette logique : il provoque la réaction, il fait rire le groupe, il distingue son auteur. La dimension punitive n'existe pas dans leur représentation mentale.
La dissociation entre l'acte numérique et la victime humaine
Cette déconnexion est peut-être le phénomène le plus préoccupant. L'auteur du deepfake ne voit pas la victime pleurer. Il voit une image sur un écran, manipulée comme on manipule un mème ou un montage humoristique. L'absence de contact physique, l'absence de réaction en temps réel, l'anonymat relatif de l'écran : tout concourt à effacer la dimension humaine du préjudice. C'est cette même dissociation qui permet à un adolescent de générer trente images de trente camarades différentes sans ressentir le poids de ce qu'il fait.
Les deepfakes ont déjà franchi les portes des lycées français
Ce qui se passe dans l'Illinois n'est pas un épiphénomène lointain. Le phénomène a déjà franchi les portes de collèges et de lycées français. À Bourg-en-Bresse, dans l'Ain, le lycée Joseph-Marie Carriat a été frappé par un cas d'une ampleur inédite. Un élève de terminale de dix-sept ans a utilisé l'intelligence artificielle pour créer des photomontages pornographiques d'une trentaine de ses camarades.
Le harcèlement systématique de Bourg-en-Bresse
D'après les témoignages recueillis par France 3 Auvergne-Rhône-Alpes, des élèves de terminale ont fini par voler le disque dur de l'auteur et y ont découvert ce qu'ils ont décrit comme « une sorte de bibliothèque où il avait classé chaque fille suivant le nom. » L'IA avait été utilisée pour dénuder chaque photo, créant une collection méthodique. La police a formellement identifié dix-neuf victimes, mais seulement trois d'entre elles ont porté plainte, et une procédure a été ouverte pour « atteinte à l'intimité de la vie privée par fixation, enregistrement ou transmission de l'image d'une personne présentant un caractère sexuel et diffusion de l'image d'un mineur présentant un caractère sexuel. »
Le silence des victimes : trois plaintes pour des dizaines de lycéennes ciblées
Ce décalage entre le nombre réel de victimes et le nombre de plaintes enregistrées est révélateur. Il souligne la honte, la peur des représailles et le sentiment d'impunité qui paralysent les adolescentes. Porter plainte, c'est officialiser l'existence de l'image, c'est risquer que l'affaire devienne publique, c'est s'exposer au jugement des camarades et parfois même de la propre famille. Le résultat, c'est qu'un auteur ayant ciblé une trentaine de personnes ne fait face qu'à trois plaintes, ce qui fausse la perception de la gravité des faits et limite la portée de la réponse judiciaire.
Des collégiennes de la Manche aux réseaux sociaux
Plus au nord, à Saint-Hilaire-du-Harcouët dans la Manche, le collège privé Immaculée Conception a été confronté à une situation similaire début mars 2025 : une douzaine de collégiennes ont été victimes de deepfakes à caractère sexuel diffusés sur les réseaux sociaux, comme l'a rapporté RTL. Le chef d'établissement a précisé que les faits n'avaient rien à voir directement avec l'école mais qu'un « dispositif de veille » avait permis de réagir rapidement. Le parquet de Coutances a ouvert une enquête, mais les images avaient déjà circulé parmi les collégiens.
De la vitesse de diffusion face aux capacités de réaction
Le passage du cas de Bourg-en-Bresse à celui de la Manche illustre une accélération dangereuse. À Bourg-en-Bresse, les images étaient stockées sur un disque dur, ce qui supposait un accès physique à l'ordinateur de l'auteur pour les découvrir. À Saint-Hilaire-du-Harcouët, les deepfakes ont été directement diffusés sur les réseaux sociaux. La propagation devient alors quasi instantanée et incontrôlable. Entre le moment où l'image est générée et celui où l'institution est alertée, des dizaines de personnes l'ont déjà vue, enregistrée et potentiellement partagée.
La loi anti-deepfake tient-elle face à un ado de 15 ans ?
Face à cette réalité, la question cruciale est celle de l'arsenal juridique disponible. En France, la loi SREN du 21 mai 2024 a marqué une avancée significative en créant les articles 226-8 et 226-8-1 du Code pénal, qui incriminent explicitement les deepfakes pour la première fois. Comme le détaille Village-Justice, ce cadre juridique nouveau apporte une clarté bienvenue dans un domaine jusqu'alors flou.
Deux articles pour deux niveaux de gravité
L'article 226-8 cible la diffusion non consentie d'un deepfake « trompeur », c'est-à-dire dont le caractère artificiel n'est pas évident. La peine est d'un an d'emprisonnement et de 15 000 euros d'amende, portés à deux ans et 45 000 euros en cas de diffusion sur Internet. L'article 226-8-1, spécifique aux deepfakes à caractère sexuel, va plus loin : il n'est pas nécessaire de prouver le caractère trompeur de l'image. Même si le deepfake est manifestement faux, la diffusion reste répréhensible. Les peines sont de deux ans et 60 000 euros, ou trois ans et 75 000 euros lorsque la diffusion a lieu en ligne.
Un texte neuf face à un phénomène plus rapide
La loi SREN représente un vrai progrès dans le paysage juridique français. Avant son adoption, les victimes de deepfakes sexuels devaient se rabattre sur des qualifications juridiques imparfaites, comme l'atteinte à l'intimité de la vie privée ou le harcèlement, qui ne rendaient pas compte de la spécificité du préjudice lié à la manipulation algorithmique. Mais entre le moment où les premiers cas scolaires ont émergé et celui où la loi a été votée, des mois se sont écoulés. Le droit est en perpétuel rattrapage face à des outils qui évoluent en permanence.
Ce que risquent réellement les auteurs mineurs
La question de l'applicabilité de ces peines face à des auteurs mineurs de treize à dix-sept ans reste entière, puisque la majorité pénale en France est fixée à dix-huit ans. Un mineur de moins de seize ans ne peut pas être condamné à une peine de prison. Un mineur de seize à dix-sept ans peut l'être, mais de manière exceptionnelle. La sanction financière de 75 000 euros est purement symbolique lorsqu'elle frappe un adolescent sans revenu. En réalité, le juge des enfants adaptera la sanction : mesures éducatives, placement sous surveillance, travaux d'intérêt général, voire obligation de suivre un stage de sensibilisation.
Les condamnations espagnoles montrent les limites du système
Le cas espagnol d'Almendralejo, détaillé par Next.ink dans son enquête sur les deepfakes en Normandie, offre un éclairage précieux. Quinze adolescents de treize à quinze ans y ont été condamnés mi-2024, prouvant que la condamnation est possible mais que la nature de la peine reste nécessairement adaptée au statut de mineur. Cette réalité frustre les victimes et leurs familles, qui perçoivent un décalage entre la violence subie et la réponse judiciaire. Pour les victimes de revenge porn ou de deepfakes, le traumatisme est identique quel que soit l'âge de l'auteur.
Supprimer, c'est impossible : pourquoi les images hantent les victimes
Même avec une loi adaptée et une condamnation effective, la limite la plus cruelle du système réside dans l'impossibilité de faire disparaître les images. Une fois un deepfake diffusé sur un réseau social, envoyé via une application de messagerie, AirDrop ou WhatsApp, il est copié, recopié, stocké sur des dizaines de téléphones. La police peut exiger le retrait du contenu sur une plateforme identifiée, mais elle ne peut pas accéder aux galeries photo privées des camarades qui ont enregistré l'image.
Le faux devient réel dans ses conséquences
Pour les victimes, l'angoisse ne vient pas seulement du premier partage. Elle naît de la menace permanente : qui d'autre possède cette image ? Quand ressortira-t-elle ? La mère de Stevie Hyder l'a formulé avec une lucidité poignante dans son témoignage rapporté par CBS News Chicago : « Nous savons que c'est faux, mais si ça arrive à un employeur… » Cette phrase résume tout le dommage permanent. Le faux devient réel dans ses conséquences : refus d'embauche, mise à l'écart sociale, rumeurs persistantes. L'image survit à la condamnation de l'auteur.
Les canaux de diffusion échappent à tout contrôle
Les canaux de diffusion privilégiés par les adolescents compliquent encore davantage la situation. AirDrop permet d'envoyer une image à tous les appareils à proximité en quelques secondes, sans aucun suivi ni traçabilité. Les messages éphémères promettent une disparition automatique, mais les destinataires peuvent faire des captures d'écran. Les groupes de discussion privés échappent totalement à la modération des plateformes. Aucun de ces canaux n'est contrôlable par une équipe de modération, ni par la police.
La propagation virale dépasse l'auteur initial
Quand une image est lancée dans un de ces circuits, elle suit une trajectoire imprévisible et invisible. L'auteur initial peut même avoir supprimé le contenu de son propre téléphone : l'image continue de circuler sans lui. Ce phénomène de dissociation entre l'émetteur initial et la propagation virale rend toute tentative de confinement pratiquement vaine une fois que le premier cercle de diffusion est dépassé. La victime est confrontée à une menace qui n'a plus de source identifiable, et donc plus de moyen d'action.
Le droit à l'oubli face à l'ère de la diffusion virale
Le droit à l'oubli, qui existe en France et en Europe, est conçu pour permettre à une personne de demander le déréférencement d'informations la concernant. Mais ce droit suppose qu'on puisse identifier et contacter chaque détenteur de l'image. Dans le contexte d'une diffusion virale au sein d'un lycée, cette condition est impossible à remplir. Pour une lycéenne de quinze ans, engager une procédure de droit à l'oubli contre des dizaines de détenteurs anonymes est un combat épuisant, techniquement impossible et psychologiquement destructeur. Le droit à l'oubli a été pensé pour l'ère des moteurs de recherche, pas pour l'ère de la diffusion virale par IA.
Ce que parents, professeurs et adolescents peuvent faire avant que le deepfake frappe
Il serait facile de conclure sur l'impuissance collective. Pourtant, des leviers d'action concrets existent. Christophe Charrier, enseignant-chercheur en sécurité informatique interrogé dans le cadre de l'enquête sur l'Ain, recommande d'abord des mesures individuelles : éviter de poster des photos en maillot ou en tenue légère en grand format sur les réseaux sociaux, limiter l'accès public à ses photos de profil.
Les limites du discours préventif individuel
Mais ces conseils, s'ils sont utiles, ne suffisent pas. Ils risquent même de glisser vers un discours victimogène qui suggère que les adolescentes seraient responsables de ce qu'on fait de leurs images. Stevie Hyder n'avait rien fait de différent de ce que font des millions de jeunes. La prévention ne peut pas reposer sur la restriction des comportements ordinaires des victimes potentielles. Elle doit cibler les auteurs et le cercle de diffusion.
Les trois fronts d'action simultanée
L'action doit se concentrer sur trois fronts simultanés. Les établissements doivent mettre en place des formations spécifiques sur le deepfake dès la quatrième, avec des protocoles de signalement clairs et connus de tous les élèves. Les parents doivent aborder le sujet du deepfake comme ils parlent du piratage de compte ou du cyberharcèlement : ouvertement, sans tabou, en expliquant les conséquences juridiques et humaines. Les adolescents doivent comprendre que refuser de faire circuler une image est le geste le plus puissant qu'ils puissent poser.
« Ne pas faire circuler » est le seul geste qui compte au moment du partage
Dans la quasi-totalité des cas documentés, ce ne sont pas les auteurs du deepfake qui causent le plus de dégâts, mais ceux qui font suivre l'image par curiosité, par pression sociale ou par simple inertie. Une image générée par un seul élève peut être vue par deux cents personnes si chacun la transfère dans un groupe. Le geste de « ne pas faire circuler » est donc le mécanisme de protection le plus efficace qui existe. Il ne coûte rien, il ne demande aucune compétence technique, et il peut empêcher la contamination. Les campagnes de sensibilisation devraient moins insister sur les risques de créer un deepfake — ce qui est déjà puni par la loi — que sur la responsabilité de ceux qui reçoivent et transmettent.
De la punition à la prévention : pourquoi le discours « c'est interdit » ne suffit plus
L'arsenal répressif, de la loi SREN aux condamnations d'Almendralejo en Espagne, est nécessaire mais insuffisant face à un public qui a l'impression d'agir dans un espace virtuel sans conséquences réelles. Dire à un adolescent « c'est illégal, tu risques trois ans de prison » n'a qu'un impact limité quand il a vu des centaines de contenus illicites circuler en ligne sans que rien ne se passe. La seule réponse proportionnée est de faire comprendre la réalité du dommage avant que l'acte ne soit commis. Cela passe par des témoignages de victimes, des simulations de propagation virale en classe, des discussions sur la différence entre le virtuel et le réel dans le ressenti de la personne ciblée.
Conclusion : le deepfake sexuel n'est pas une blague technologique
Les affaires de Lake Zurich, Bourg-en-Bresse et Saint-Hilaire-du-Harcouët ne sont pas des incidents isolés. Elles signalent l'émergence d'une forme de violence spécifique à la génération connectée, où une photo de bal de lycée peut devenir en trente secondes une arme de destruction sociale. La loi SREN a donné à la France un cadre juridique parmi les plus avancés au monde, mais le droit ne suffit pas face à des outils qui se déplacent plus vite que les textes. La suppression des images est une illusion, et la justice pénale pour mineurs atteint ses limites face à la masse des cas. Ce qui reste, c'est la prévention : des formations dans les établissements dès le collège, un dialogue ouvert dans les familles, et surtout la construction d'une norme sociale où celui qui refuse de faire circuler un deepfake est perçu comme le courageux, et non comme le rabat-joie. Il est temps que chaque adulte — parent, professeur, éducateur — mesure l'urgence d'agir avant que le prochain cliché publié sur un réseau social ne devienne le prochain cauchemar d'une adolescente.