Voici le texte corrigé, avec les fautes d’orthographe, de grammaire, d’accentuation et de typographie rectifiées. Les guillemets français « » ont été ajoutés avec des espaces insécables, et les espaces avant les doubles ponctuations ( ; : ! ? ) ont été respectés. Le contenu et la structure Markdown sont préservés.
Le 13 mai 2026, la Lucy Faithfull Foundation a dévoilé un chiffre qui donne le vertige : plus de 70 millions de messages d’avertissement ont été envoyés à travers le monde aux internautes tentant d’accéder à des images d’abus sexuels sur enfants (CSAM) entre 2024 et 2025. Cela représente plus de 95 000 alertes par jour. Sur cette masse, près de 700 000 personnes ont cliqué pour obtenir de l’aide via le programme Stop It Now. Derrière ces statistiques se cache une question centrale : ces avertissements parviennent-ils vraiment à dissuader les criminels, ou ne font-ils que déplacer le problème ? Et surtout, qui reçoit ces messages ?

Comment fonctionne le système d’avertissement Project Intercept
Le programme Project Intercept, développé par la Lucy Faithfull Foundation avec le financement de Nominet (le registre des domaines internet britanniques), repose sur un principe simple mais radical : intercepter l’internaute au moment précis où il cherche à accéder à des contenus illégaux.
Le déclenchement des alertes
Lorsqu’un utilisateur tape certains mots-clés dans un moteur de recherche ou clique sur un lien signalé comme contenant du CSAM, un écran d’avertissement s’affiche avant que la page ne se charge. Ce message n’est pas un simple bandeau discret : il occupe tout l’écran, explique clairement que la recherche de ce type de contenu est illégale et cause un préjudice réel aux enfants. Il propose également un lien direct vers des ressources d’aide psychologique et juridique.
Le système couvre plusieurs types de plateformes : les moteurs de recherche, les réseaux sociaux, les sites de partage de fichiers, les applications de rencontres, les services de messagerie chiffrée et même les chatbots basés sur l’intelligence artificielle. L’objectif est de créer un filet de sécurité le plus large possible.
Le rôle de PhotoDNA et ses limites récentes
Au cœur du dispositif de détection se trouve PhotoDNA, un outil développé par Microsoft qui compare les images téléchargées à une base de données de contenus déjà identifiés comme illégaux. Mais en mars 2026, des chercheurs de l’Université de Gand et de la KU Leuven ont révélé quatre failles de sécurité critiques dans ce système, comme le rapporte Next.ink.
Première faille : des attaquants peuvent modifier légèrement une image illégale pour échapper à la détection par hachage. Deuxième problème : des images innocentes peuvent être altérées de manière à correspondre aux empreintes de CSAM, ce qui expose des utilisateurs ordinaires à de fausses accusations. Troisième découverte inquiétante : il est possible de reconstruire l’image originale à partir de son hachage, contredisant la promesse de Microsoft selon laquelle ce processus serait irréversible. Enfin, des attaques par collision permettent à deux images différentes de partager le même hachage.
Ces vulnérabilités ne remettent pas en cause l’utilité globale de PhotoDNA, mais elles montrent que la technologie n’est pas infaillible et qu’elle peut produire des faux positifs aux conséquences graves.
70 millions d’avertissements : que nous disent ces chiffres ?
Le volume d’alertes déclenchées en deux ans est colossal. Pour mettre ce nombre en perspective, c’est l’équivalent de la population de la France qui aurait reçu ce message, et même un peu plus. Mais tous ces avertissements ne ciblent pas des criminels endurcis.
Profil des personnes interceptées
Les données de la Lucy Faithfull Foundation montrent que les profils sont variés. Certains sont des délinquants sexuels connus des services de police, mais d’autres sont des personnes qui, pour la première fois, cèdent à une curiosité malsaine. Il y a aussi des adolescents, des étudiants en journalisme ou en droit qui cherchent à comprendre le phénomène, et même d’anciennes victimes qui tentent de retrouver des images d’elles-mêmes.
Le professeur Sonia Livingstone, de la London School of Economics, a commenté ces chiffres dans un entretien à la BBC : « Le fait que seulement 700 000 personnes aient cliqué pour obtenir de l’aide sur 70 millions d’avertissements peut sembler décevant. Mais il faut nuancer : 4 personnes sur 5 qui accèdent aux ressources s’engagent réellement dans une démarche d’aide. »
Le taux de clics vers l’aide
Avec un taux de conversion d’environ 1 % (700 000 clics pour 70 millions d’alertes), on pourrait conclure que le dispositif échoue à toucher la majorité des internautes concernés. Pourtant, Deborah Denis, directrice générale de la Lucy Faithfull Foundation, défend l’approche : « Placer un avertissement au moment où le comportement nuisible se produit, c’est créer une opportunité de réflexion. Même ceux qui ferment la fenêtre et continuent ailleurs ont reçu un message. »

Les 700 000 personnes qui ont cherché de l’aide représentent tout de même une population significative. Si chacune d’elles a évité de passer à l’acte ou de récidiver, l’impact en termes de prévention est réel.
Que se passe-t-il après un avertissement ?
Beaucoup d’internautes ignorent ce qui se cache derrière cet écran rouge. La réponse dépend du pays, de la plateforme et de la gravité de la tentative d’accès.
Les suites pénales en France
En France, la consultation habituelle de sites pédopornographiques est punie de deux ans d’emprisonnement et de 75 000 euros d’amende, selon l'article 227-23 du Code pénal. Le terme « habituelle » est crucial : une consultation unique et isolée ne tombe pas sous le coup de la loi, ce qui laisse une marge pour les curieux ou les erreurs de navigation.
Mais attention : le simple fait de recevoir un avertissement ne signifie pas que la police débarque chez vous. Les plateformes ne sont pas tenues de transmettre automatiquement les données des utilisateurs aux autorités. En France, c’est le service Pharos qui centralise les signalements, mais il ne compte que 54 personnes, contre 300 au Royaume-Uni. Un déséquilibre préoccupant quand on sait que la France est le quatrième pays hébergeur de contenus pédocriminels au monde, selon la même source sénatoriale.
Le blocage d’accès et ses limites
Les fournisseurs d’accès internet français n’ont aucune obligation légale de bloquer ou de retirer les contenus pédocriminels. Le retrait se fait uniquement sur la base du volontariat, comme l’a révélé une question écrite au Sénat en novembre 2024. Le STRJD (Service technique de recherche judiciaire et de documentation) et le CNAIP (Centre national d’analyse des images de pédopornographie) travaillent avec les hébergeurs, mais sans cadre contraignant.
Le Digital Services Act (DSA) européen, entré en vigueur en août 2023 pour les très grandes plateformes et en février 2024 pour toutes les autres, impose désormais un outil de signalement des contenus illicites et une obligation de retrait rapide. Un règlement spécifique sur les contenus pédocriminels (proposition 2022/0155) est en débat à Bruxelles, mais son adoption est loin d’être acquise. Comme nous l’expliquions récemment dans notre article sur le scan européen qui expire le 3 avril 2026, les négociations butent sur des questions de respect de la vie privée et de chiffrement.
Les dangers des faux positifs : quand l’innocent est piégé
Le scandale des failles de PhotoDNA n’est pas un problème théorique. Des cas concrets montrent que des internautes parfaitement innocents peuvent se retrouver accusés à tort.
L’affaire des modifications d’images anodines
Les chercheurs belges ont démontré qu’en modifiant quelques pixels d’une photo de paysage ou d’un selfie, on pouvait faire correspondre cette image à l’empreinte numérique d’un contenu illégal. Imaginez la situation : vous partagez une photo de vos vacances sur un réseau social, et quelques heures plus tard, votre compte est suspendu pour pédopornographie. Votre réputation est salie, votre employeur est prévenu, et vous devez prouver votre innocence.
Ce scénario n’est pas de la science-fiction. Aux États-Unis, plusieurs cas de faux positifs ont été documentés, et des avocats spécialisés commencent à s’emparer du sujet. En Europe, le RGPD offre une protection théorique, mais en pratique, prouver que votre image a été altérée par un tiers est extrêmement difficile.
Les conséquences psychologiques et sociales
Recevoir un avertissement pour recherche de contenu pédopornographique alors qu’on est innocent peut être traumatisant. Les personnes concernées décrivent un sentiment de honte, de peur et d’impuissance. Certaines ont perdu leur emploi après que leur employeur a été informé. D’autres ont vu leur vie familiale voler en éclats.
Les plateformes, de leur côté, sont souvent réticentes à reconnaître leurs erreurs. Le processus de contestation est long, opaque, et exige des compétences techniques que la plupart des utilisateurs n’ont pas. La question de la vérification d’âge et de l’identité numérique devient centrale, comme le montre le cas récent de Discord et son fiasco avec Persona, où des milliers d’utilisateurs ont vu leurs données compromises.
L’impact réel sur la dissuasion des criminels
Au-delà des chiffres et des controverses techniques, la question fondamentale reste : est-ce que ça marche ?
Les données de la Lucy Faithfull Foundation
L’organisation britannique, forte de 30 ans d’expérience clinique auprès d’auteurs d’infractions sexuelles, affirme que son approche est efficace. Les 700 000 clics vers les ressources d’aide ne sont pas un échec, mais un succès relatif. Chaque personne qui contacte Stop It Now reçoit un accompagnement personnalisé, avec des psychologues spécialisés.
Les témoignages recueillis par la fondation montrent que certains utilisateurs ont arrêté leur comportement après avoir vu l’avertissement. D’autres ont cherché de l’aide pour des pulsions qu’ils n’arrivaient pas à contrôler. Le programme ne se contente pas de punir : il offre une porte de sortie.
Les limites de l’approche par avertissement
Mais les critiques sont nombreuses. D’abord, les criminels les plus déterminés connaissent l’existence de ces systèmes et utilisent des VPN, le réseau Tor, ou des forums privés pour contourner les alertes. Les 70 millions d’avertissements ne touchent que ceux qui passent par les canaux traditionnels.
Ensuite, certains experts estiment que ces messages peuvent avoir l’effet inverse sur certains profils : au lieu de dissuader, ils peuvent attiser la curiosité ou renforcer la détermination. C’est le phénomène de « réactance psychologique » bien connu des spécialistes du comportement.
Enfin, le système ne règle pas le problème en amont : tant que des images d’abus sont produites et mises en ligne, la demande existera. Les avertissements sont un pansement, pas un traitement de fond.
Le cadre légal français et européen : entre volontarisme et lacunes
La France a renforcé son arsenal législatif ces dernières années, mais des trous dans la raquette persistent.
L’Ofmin et l’explosion des signalements
L’Office mineurs (Ofmin) a alerté en 2024 sur une explosion du partage en ligne de contenus pédocriminels, avec plus de 318 000 signalements en 2023, selon la question sénatoriale de novembre 2024. Ce chiffre est en augmentation constante, ce qui reflète à la fois une meilleure détection et une aggravation réelle du phénomène.
Le CNAIP, basé à Nanterre, est le centre national d’analyse des images. Il travaille en lien avec Europol et Interpol, mais ses moyens restent limités. La plateforme Pharos, gérée par l’OCLCTIC, reçoit les signalements des internautes, mais avec seulement 54 agents, le temps de traitement peut atteindre plusieurs semaines.
Le DSA et le futur règlement européen
Le Digital Services Act a marqué un tournant en imposant aux très grandes plateformes (Meta, Google, X, TikTok, etc.) des obligations de signalement et de retrait des contenus illicites. Mais le texte ne couvre pas spécifiquement les contenus pédocriminels, et les discussions sur un règlement dédié (proposition 2022/0155) sont au point mort.
La difficulté principale réside dans l’équilibre entre la protection des mineurs et le respect de la vie privée. Les défenseurs des libertés numériques craignent que ces mesures n’ouvrent la voie à une surveillance généralisée des communications, y compris des messages chiffrés. Les plateformes, de leur côté, hésitent à mettre en place des systèmes de scan automatique, par peur des poursuites judiciaires et des réactions des utilisateurs.
Conclusion
Les 70 millions d’avertissements envoyés en deux ans par le programme Project Intercept sont un marqueur de l’ampleur du problème de la pédopornographie en ligne. Ils montrent que la demande pour ces contenus est massive et que les systèmes de prévention, bien qu’imparfaits, touchent un public large.
Mais ce chiffre cache des réalités plus complexes. Tous ceux qui reçoivent ces alertes ne sont pas des criminels : certains sont des curieux, des victimes, des étudiants ou des personnes piégées par des failles techniques. Les 700 000 clics vers l’aide sont encourageants, mais ils ne représentent qu’une infime partie des personnes interceptées.
Le vrai défi est ailleurs : comment empêcher la production de ces images à la source ? Comment donner aux autorités les moyens humains et techniques de traiter les signalements ? Comment concilier protection de l’enfance et respect des libertés numériques ? Les 70 millions d’avertissements ne sont pas une solution miracle, mais ils ont au moins le mérite de poser ces questions avec une urgence nouvelle.