Ce mardi 24 mars 2026, l'atmosphère était tendue devant le tribunal de Santa Fe, au Nouveau-Mexique. À l'issue d'un procès qui a duré près de sept semaines, le jury a rendu son verdict : Meta, la maison mère d'Instagram et de Facebook, a été reconnue coupable d'avoir nuit à la santé mentale des mineurs et d'avoir dissimulé des informations cruciales concernant l'exploitation sexuelle des enfants sur ses plateformes. Il ne s'agit pas d'un simple épisode judiciaire de plus, mais d'une rupture historique. Pour la première fois, un jury a condamné le géant de la Silicon Valley sur le fond de la sécurité des enfants, brisant une aura d'invincibilité juridique qui semblait jusqu'alors inébranlable.

Les chiffres de ce verdict sont lourds de sens : 375 millions de dollars d'amende pour des milliers de violations de l'Unfair Practices Act, la loi sur les pratiques commerciales déloyales de l'État. Bien sûr, pour une entreprise valorisée à 1 500 milliards de dollars, cette somme financière représente une dépense opérationnelle mineure que le groupe a immédiatement annoncé qu'il contesterait en appel. Pourtant, l'impact réel ne se mesure pas en dollars mais en précédent juridique. Comme l'a souligné Sacha Haworth, directrice exécutive du groupe de surveillance The Tech Oversight Project, « la maison de cartes de Meta commence à s'effondrer ». Au-delà de l'aspect financier, c'est la qualification juridique des pratiques de Meta, désormais jugées « inconscionables » par un tribunal, qui fait trembler la Silicon Valley.
375 millions de dollars et des milliers de violations : la mécanique du jury
Pour comprendre la portée de cette décision, il faut décortiquer la manière dont le jury est parvenu à ce chiffre de 375 millions de dollars. Contrairement à une amende forfaitaire, le tribunal a comptabilisé chaque violation individuellement, accumulant les pénalités pour atteindre ce total. Il est important de noter que ce montant représente moins d'un cinquième de ce que le procureur général du Nouveau-Mexique réclamait initialement, témoignant d'une certaine modération dans l'évaluation des dommages et intérêts. Cependant, réduire cet événement à sa seule dimension comptable serait une erreur grave.
Le cœur du sujet réside moins dans le paiement que dans la nature même de la condamnation. Le jury a retenu que Meta s'était rendue coupable de « pratiques commerciales inconscionables » et de « déclarations fausses ou trompeuses ». En droit, qualifier une pratique d'unconscionable est particulièrement sévère ; cela implique que les termes du service étaient si injustement unilatéraux qu'aucune personne raisonnable ne les aurait acceptés. Cette qualification crée désormais un précédent juridique solide et utilisable. Plus de quarante autres États américains ont déposé des plaintes similaires à l'encontre du géant de Menlo Park ; ils peuvent désormais s'appuyer sur cette jurisprudence pour avancer leurs propres dossiers, transformant le verdict du Nouveau-Mexique en une brèche majeure dans le blindage légal de l'industrie technologique.
La notion de pratiques inconscionables et ses implications juridiques
La décision du jury repose sur un concept juridique puissant : celui de pratiques commerciales « inconscionables ». Ce terme ne désigne pas simplement une illégalité technique, mais une injustice si profonde qu'elle « choque la conscience ». Dans le cas présent, cela signifie que les mécanismes mis en place par Meta pour piéger l'attention des enfants étaient si déséquilibrés qu'ils en devenaient inacceptables moralement et juridiquement. C'est la reconnaissance par la loi que le déséquilibre des forces entre un conglomérat mondial armé d'algorithmes sophistiqués et un mineur vulnérable n'est pas une simple imperfection du marché, mais une faute caractérisée.
Cette ouverture juridique est un atout majeur pour les autres procureurs. En effet, alors qu'il est souvent difficile de prouver une intention malveillante précise devant un tribunal civil, la qualification de pratique inconscionable permet d'attaquer la structure même du produit. Les avocats des futures victimes n'auront plus besoin de prouver que Meta voulait explicitement du mal à un enfant spécifique, mais simplement que le design de la plateforme était intrinsèquement abusif envers une population vulnérable. Cela abaisse considérablement la barrière de la preuve et augmente exponentiellement les risques pour l'entreprise face à la vague de contentieux qui s'annonce.
Une victoire symbolique face au lobbying de la Silicon Valley
Au-delà des textes de loi, ce verdict constitue une victoire symbolique majeure pour les États contre le lobbying agressif de la Big Tech. Pendant des années, les entreprises technologiques ont réussi à repousser les régulations en arguant que l'innovation ne devait pas être entravée par des législations trop strictes, souvent en s'appuyant sur des équipes d'avocats et de lobbyistes mieux financées que les départements juridiques de nombreux États. Le verdict du Nouveau-Mexique brise ce mythe de l'invincibilité politique et juridique.
La jurée Linda Payton, âgée de 38 ans, a d'ailleurs souligné que le jury avait opté pour la pénalité maximale par violation, estimant que chaque enfant valait le montant maximum. Ce témoignage en dit long sur l'état d'esprit du jury : une volonté claire de marquer le coup et d'envoyer un message que le lobbying ne peut pas étouffer. C'est un signal envoyé à tous les législateurs hésitants : il est possible de gagner contre les géants de la tech, et l'opinion publique soutient cette prise de position ferme.
Pourquoi le Nouveau-Mexique a ouvert la brèche le premier
On pourrait se demander pourquoi c'est le Nouveau-Mexique, et non la Californie ou New York, qui a infligé cette première défaite cinglante à Meta. L'État n'est ni le plus peuplé ni le plus riche des États-Unis, mais son procureur général a su adopter une stratégie radicale qui a fait la différence. Alors que de nombreuses autres plaintes reposaient sur des arguments généraux concernant la détérioration de la santé mentale des adolescents ou des statistiques épidémiologiques complexes à démontrer en salle d'audience, le Nouveau-Mexique a choisi une approche empirique et factuelle.
Le succès de cette stratégie réside dans l'accumulation de preuves spécifiques et irréfutables plutôt que dans la théorie. L'équipe juridique de l'État a concentré ses efforts sur la démonstration que Meta ne se contentait pas d'ignorer passivement les problèmes, mais qu'elle concevait activement des systèmes piégeant les mineurs. C'est cette méthodologie, fondée sur des enquêtes de terrain et des preuves directes, qui a permis de convaincre douze jurés ordinaires de la culpabilité du géant technologique. Alors que des États plus grands s'embourbaient dans des débats techniques sur la responsabilité des plateformes, le Nouveau-Mexique a présenté une enquête policière classique : un délit, des preuves matérielles, un coupable désigné.
Une stratégie d'enquête terrain hors du commun
L'élément différenciant du Nouveau-Mexique réside dans sa méthode d'investigation. Plutôt que de se contenter d'analyses de données ou d'auditions d'experts, le bureau du procureur général a mené l'enquête comme si Meta était un cartel de la drogue opérant sur son territoire. Ils ont créé des profils fictifs, surveillé les activités en temps réel et documenté chaque interaction. Cette approche concrète a permis de traduire des concepts abstraits comme « algorithme de recommandation » en situations tangibles : un adulte contacte un mineur, une image violente apparaît sur un écran d'enfant.
C'est cette capacité à matérialiser le danger qui a séduit le jury. Les avocats de Meta ont beau jeu de dire que les statistiques sont complexes ou que la corrélation n'est pas causalité, mais il est beaucoup plus difficile de défendre une vidéo où un agent de police se faisant passer pour une adolescente se fait harceler en direct. En transformant un débat technique en une histoire humaine compréhensible, le Nouveau-Mexique a trouvé la clé pour faire tomber les murs de la défense de Menlo Park.
L'effet d'entraînement pour les autres procès en cours
Ce verdict ne reste pas isolé dans le désert du Nouveau-Mexique ; il fait tache d'huile et alimente les dossiers des autres États. Plus de quarante procureurs généraux aux États-Unis ont des actions en cours contre Meta, et beaucoup d'entre elles étaient dans une phase d'incertitude, attendant de voir comment un jury réagirait face à des accusations aussi lourdes. Avec ce premier « guilty », la peur de l'échec s'estompe et l'appétit pour la bataille juridique augmente.
Les avocats des autres États peuvent désormais se référer à ce verdict dans leurs propres procédures, utilisant le terme « inconscionable » comme une arme déjà éprouvée. Cela crée une dynamique d'effet domino potentiellement dévastatrice pour Meta. Si un État relativement petit comme le Nouveau-Mexique a réussi à obtenir une telle condamnation, les États plus grands disposant de ressources encore plus importantes, comme la Californie ou New York, ont toutes les raisons de croire qu'ils peuvent obtenir des résultats encore plus spectaculaires.
Les preuves accablantes : faux comptes et documents internes
Pour comprendre comment l'invincible Meta a pu perdre, il faut quitter le domaine de l'abstrait pour entrer dans le bureau des juges, où les preuves présentées étaient accablantes. L'élément central du dossier du Nouveau-Mexique n'était pas une étude sociologique sur la dépression des adolescents, mais une enquête sous couverture menée par les services de l'État. Des agents ont créé de faux comptes sur Instagram et Facebook en se faisant passer pour des mineurs, documentant méthodiquement ce qui leur arrivait une fois sur les plateformes. Les résultats ont constitué une véritable machine de guerre contre la défense de Meta.
Ce que ces agents ont découvert dépasse l'entendement : des sollicitations sexuelles directes dès les premières minutes d'utilisation, une abondance de contenu glorifiant le suicide ou les troubles alimentaires, et une absence quasi totale de réaction de la part de la modération de Meta malgré des signalements répétés. Ces éléments factuels, impossibles à balayer d'un revers de main par des arguments de « liberté d'expression » ou de « défis techniques », ont été croisés avec des documents internes de la société, saisis pendant la procédure. C'est ce mélange explosif d'une enquête de terrain brute et de paperasse administrative confidentielle qui a scellé le sort du procès.
L'enquête sous couverture : des agents se font passer pour des ados
La méthodologie de l'enquête sous couverture, menée par le bureau du procureur général, est d'une précision chirurgicale. Les agents n'ont pas simplement navigué passivement ; ils ont créé des comptes avec des âges fictifs, souvent situés juste au-dessus de la barre fatidique des 13 ans, ou ont menti sur leur date de naissance pour voir comment les algorithmes réagissaient. Une fois les profils actifs, les agents ont interagi avec la plateforme de la manière la plus standard possible : « aimer » des photos, suivre des comptes suggérés, commenter des posts. Ce qu'ils ont reçu en retour n'a rien à voir avec le réseau social « bienveillant » décrit par Mark Zuckerberg dans ses communiqués de presse.
Les rapports détaillent des scènes de prédation en série. Des comptes d'adultes, souvent pseudonymes, contactaient ces faux profils mineurs avec des intentions sexuelles explicites. Pire encore, les algorithmes de recommandation d'Instagram, censés montrer du contenu pertinent, ont inondé les fils d'actualité de ces agents avec des images dérangeantes. Contrairement à des études épidémiologiques sur la santé mentale, qui peuvent être contestées par des experts payés par la défense, cette preuve est du constat direct. Face à cela, la rhétorique juridique de l'entreprise s'est effondrée.
Les courriels que la direction ne voulait pas voir
Si l'enquête sous couverture fournissait la preuve du dommage, les documents internes apportaient la preuve de l'intention. Le jury a pu prendre connaissance de courriels et de mémos internes montrant que la direction de Meta était non seulement au courant des problèmes, mais qu'elle les dissimulait activement. Il ne s'agit plus ici de simple négligence, mais d'une dissimulation consciente de ce que la société savait sur l'exploitation sexuelle des enfants. Ces documents révèlent des discussions techniques où des employés alertaient leurs supérieurs sur les failles de sécurité, seulement pour se voir répondre de minimiser l'impact ou de repousser les correctifs.
Cette révélation est capitale car elle détruit la défense de « bonne foi » souvent invoquée par les plateformes. Le jury a retenu que Meta « dissimulait ce qu'elle savait ». L'argument de l'ignorance ne tenait plus. C'est dans ce contexte que les révélations d'Arturo Bejar, un ancien ingénieur de la société, prennent tout leur sens. Elles ne sont pas un accident isolé, mais la confirmation d'une culture d'entreprise systémique où la protection de l'enfance est subordonnée aux impératifs de croissance.
Arturo Bejar et les failles du système de sécurité
Au cœur de cette tempête médiatique et juridique se trouve une voix qui résonne avec une force particulière : celle d'Arturo Bejar. Ancien ingénieur chez Meta, il a alerté le monde entier en novembre 2023 sur les dangers internes que la société refusait d'admettre. Son témoignage ne se contente pas d'ajouter à la pile des accusations ; il donne une voix humaine et techniquement experte à ce que les documents internes et les enquêtes de terrain suggèrent déjà. Bejar ne parlait pas en tant qu'activiste extérieur, mais en tant qu'insider qui a vu les entrailles de la machine.
Les chiffres qu'il a présentés sont vertigineux et constituent une preuve accablante contre la thèse de Meta selon laquelle tout irait pour le mieux. Selon les enquêtes internes qu'il a dirigées ou consultées, 51 % des utilisateurs d'Instagram ont vécu une « mauvaise ou nocive expérience » au cours de la semaine précédente. Ce n'est pas un pourcentage négligeable, c'est une majorité absolue des utilisateurs. Plus inquiétant encore, 21 % des adolescents ont déclaré avoir été harcelés, et 24 % ont reçu des avances sexuelles non désirées. Ces statistiques ne viennent pas d'une association de parents offensés, mais des propres données de l'entreprise. Arturo Bejar a écrit directement à Zuckerberg et aux autres dirigeants en 2021 pour leur présenter ces chiffres, mais il n'a jamais obtenu de réponse substantielle.
2 % de signalements supprimés : l'échec des outils de Meta
Parmi tous les chiffres dévoilés par Arturo Bejar, il y en a un qui, à lui seul, résume l'échec volontaire des systèmes de sécurité de Meta : seulement 2 % des publications signalées comme nocives sont réellement supprimées. Il faut laisser ce chiffre résonner : quand un adolescent prend la peine d'utiliser l'outil de signalement pour alerter qu'un contenu est nuisible, il a 98 chances sur 100 de retrouver ce même contenu en ligne après son signalement.
Ce chiffre dramatique explicite l'impuissance volontaire de la plateforme. Si Meta affirmait publiquement que ses outils de modération fonctionnaient et que la sécurité était une priorité, la réalité technique peinte par ce 2 % est tout autre. Cela signifie que le système de signalement est soit inefficace par conception, soit délibérément ignoré pour ne pas freiner l'engagement. Face au jury, ce chiffre a servi de témoin à charge silencieux mais brutal, détruisant mécaniquement l'argument de la défense selon lequel « nous essayons de supprimer les contenus nocifs ».
Des fonctionnalités de sécurité « placebo » pour les régulateurs
Arturo Bejar n'a pas seulement fourni des chiffres ; il a aussi livré une analyse impitoyable de la stratégie de communication de son ancien employeur. Il a expliqué avoir observé le développement de nouvelles fonctionnalités présentées comme des avancées majeures en matière de sécurité, mais qui étaient en réalité, selon ses propres termes, « un placebo, une fonctionnalité de sécurité de nom seulement ». L'objectif affiché de ces outils n'était pas de protéger efficacement les utilisateurs, mais de répondre à « l'indignation publique » et de donner l'impression aux régulateurs que des mesures étaient prises.
Cette critique résonne directement avec les fonctionnalités spécifiques condamnées par le jury du Nouveau-Mexique. L'absence de protection par défaut des comptes de mineurs ou la persistance d'algorithmes poussant du contenu sensationnel ne sont pas des bugs informatiques, mais des choix de conception. Ces « placebos » permettaient à Meta de publier des communiqués de presse triomphants annonçant de nouveaux contrôles parentaux ou de meilleurs filtres, tout en sachant pertinemment que ces mesures ne changeraient rien à l'expérience réelle des adolescents sur le terrain.
L'effondrement de la défense de Meta devant le jury
Face à une avalanche de preuves accablantes, l'armada juridique de Meta, pourtant réputée pour son efficacité, a perdu le contrôle de la narration. La stratégie de défense était classique : affirmer que l'entreprise investit massivement dans la sécurité parce que c'est « bon pour les affaires », répéter que les applications ont été conçues pour connecter amis et famille et non des prédateurs, et insister sur le fait que la société divulgue les risques et fait de son mieux pour supprimer les contenus nocifs. Sur le papier, ces arguments semblent solides. Cependant, dans le contexte de la salle d'audience, face aux vidéos d'enfants harcelés et aux courriels internes cyniques, ils sont apparus pour ce qu'ils étaient : une tentative de dissimulation.
Chaque pilier de la défense a été méthodiquement démonté par les preuves présentées. Lorsque les avocats de Meta affirmaient que les applications connectent les familles, le procureur projetait des extraits de l'enquête sous couverture montrant des prédateurs contactant des mineurs. Lorsque Meta prétendait supprimer les contenus nocifs, la statistique des 2 % de suppressions effectives était brandie comme preuve du contraire. Il existait un fossé infranchissable entre le discours lissé des relations publiques et la réalité crue documentée par l'État. Ce qui est frappant, c'est que les dirigeants de Meta ont admis un « usage problématique » de leurs plateformes, mais ont refusé avec véhémence d'utiliser le terme « addiction ».
« La sécurité est bonne pour les affaires » : un argument cynique
L'un des arguments les plus surprenants, et finalement contre-productifs, avancés par la défense de Meta était celui de la rentabilité. L'entreprise a soutenu qu'elle investissait dans la sécurité parce que c'était économiquement avantageux, qu'un environnement sûr gardait les utilisateurs et donc maintenait les revenus publicitaires élevés. Dans une logique purement capitaliste, cet argument tient debout. Cependant, devant un jury de citoyens ordinaires, probablement parents eux-mêmes, il a été perçu comme profondément cynique.
Quand on montre des photos d'enfants exploités ou des témoignages de tentatives de suicide facilitées par l'algorithme, défendre la sécurité de l'enfance par son rendement financier apparaît non seulement froid, mais moralement indéfendable. Le jury a retenu le terme « inconscionable » — qui signifie littéralement « contre la conscience ». Dire que l'on protège les enfants pour protéger le chiffre d'affaires revient à admettre que si la sécurité n'était pas rentable, on ne la ferait pas. Cet aveu involontaire a probablement joué un rôle majeur dans la décision des jurés de punir l'entreprise.
Le refus du mot « addiction » : une erreur stratégique
Tout au long du procès, les avocats de Meta ont soigneusement évité d'utiliser le mot « addiction », lui préférant l'expression « usage problématique ». Ce choix sémantique n'était pas anodin ; il était dicté par les équipes juridiques pour éviter tout parallèle avec les procès historiques contre « Big Tobacco », les géants du tabac. Si un jury accepte l'idée que les réseaux sociaux sont conçus pour créer une dépendance chimique ou psychologique analogue à la nicotine, la porte s'ouvre à des dommages-intérêts astronomiques.
Pourtant, ce choix de vocabulaire s'est retourné contre eux. En refusant de prononcer le mot « addiction » alors que les documents internes parlaient de maximiser le temps passé, l'entreprise a donné l'impression de rejeter la réalité. Aux yeux du jury, cette distinction sémantique sophistiquée entre « usage problématique » et « addiction » est apparue comme un tour de passe-passe juridique destiné à esquiver la responsabilité plutôt qu'une description précise de la souffrance vécue par les jeunes utilisateurs.
Los Angeles et l'accusation de « casinos numériques »
Si le verdict du Nouveau-Mexique est historique, il ne doit pas occulter un autre combat judiciaire majeur qui se déroule en parallèle : le procès fédéral à Los Angeles. Cette affaire oppose Kaley G.M., une jeune femme de 20 ans, à Meta et Google/YouTube, et constitue l'autre front majeur de la guerre judiciaire contre les réseaux sociaux. Ce procès revêt une importance capitale car c'est la première fois que les géants de la tech sont confrontés à un jury dans une affaire de responsabilité civile pour défaut de produit nuisible.
C'est dans ce contexte que Mark Zuckerberg a été appelé à témoigner en février 2026, confronté à une accusation dévastatrice : celle de concevoir des plateformes fonctionnant comme des « casinos numériques », des machines conçues pour accrocher les utilisateurs en stimulant leur circuit de la récompense. Les preuves présentées ici sont encore plus ciblées sur l'architecture même des produits, incluant des documents internes accablants. Comme l'a résumé l'avocat Mark Lanier, « l'addiction est rentable ». Ce parallèle explicite avec les procès contre le tabac des années 1990-2000 est l'arme principale des procureurs.
Kaley G.M. : le visage humain des mille autres plaintes
Derrière la complexité des arguments juridiques à Los Angeles, il y a l'histoire poignante de Kaley G.M. Son parcours est malheureusement trop commun : elle commence à utiliser YouTube à l'âge de 6 ans, reçoit son premier smartphone et ouvre son compte Instagram à 11 ans. Rapidement, l'usage devient abusif et débouche sur une cascade de problèmes de santé mentale : dépression sévère, anxiété chronique et troubles de l'image corporelle. La thèse de ses avocats est que ces plateformes ne sont pas de simples outils neutres, mais des produits défectueux qui ont altéré son développement cérébral.
Kaley n'est pas un cas isolé. Elle est le visage humain d'une vague juridique massive. Ce procès pourrait servir de test pour plus de 1 000 plaintes similaires qui sont actuellement gérées par le Social Media Victims Law Center. Chaque plaignant a une histoire différente, mais la trame de fond est identique : une exposition précoce, un algorithme agressif, et une vie basculée dans la souffrance psychologique. Le procès de Los Angeles cherche à établir un lien de causalité direct entre le design des algorithmes et ces traumatismes individuels.
Le parallèle Big Tobacco comme stratégie juridique
L'utilisation du terme « casinos numériques » par les procureurs n'est pas une métaphore hasardeuse, c'est une stratégie juridique calculée empruntée directement au playbook des procès contre l'industrie du tabac. Dans ces affaires historiques, les avocats des victimes avaient réussi à prouver que les fabricants de cigarettes savaient que leur produit créait une dépendance et causait le cancer, mais avaient choisi de dissimuler ces informations pour maximiser leurs profits.
Aujourd'hui, le parallèle est frappant. Les procureurs présentent des documents internes de Google et Meta prouvant une connaissance des dangers liés à l'addiction, tout en montrant des profits massifs générés par ce temps d'écran excessif. Comme pour le tabac, l'accusation repose sur le fait que ces entreprises ont ciblé spécifiquement les populations les plus vulnérables — les adolescents et les pré-adolescents — pour les fidéliser à vie. Ce parallèle est particulièrement dangereux pour Meta devant un jury américain, car la mémoire collective de la bataille contre le tabac est encore vive.
Conséquences concrètes pour l'utilisateur adolescent
Après avoir analysé la mécanique judiciaire et les stratégies d'avocats, il est légitime de se demander : qu'est-ce que tout cela change vraiment pour un adolescent de 17 ans qui, ce soir même, fait défiler son fil Instagram ? À première vue, rien ne semble avoir bougé. L'application fonctionne toujours, les algorithmes recommandent toujours du contenu, et l'amende de 375 millions de dollars ne modifiera pas instantanément le code de l'application. Cependant, en y regardant de plus près, ce verdict marque le début d'une transformation nécessaire et inévitable de l'expérience utilisateur pour les mineurs.
Les fonctionnalités spécifiquement dans le collimateur ne sont pas anecdotiques. Il s'agit des mécanismes mêmes qui rendent l'application addictive : les algorithmes de recommandation qui poussent du contenu sensationnel ou émotionnellement chargé pour retenir l'attention, le non-respect systématique de l'interdiction des moins de 13 ans, et l'absence de protections par défaut pour les comptes de mineurs. Le message envoyé par le jury est clair : continuer à exposer des adolescents à ce système sans garde-fou est juridiquement intenable.
Algorithmes de recommandation : le cœur du problème
Le jury du Nouveau-Mexique n'a pas condamné le concept de réseau social en soi, mais des choix techniques précis faits par les ingénieurs de Meta. Le cœur du problème réside dans l'algorithme de recommandation, qui privilégie systématiquement le contenu sensationnel, polarisant ou choquant car celui-ci génère plus de clics et de temps de visionnage. Pour un ado, cela signifie être bombardé de contenus paradoxaux : vidéos de régimes extrêmes à côté d'images de corps irréalistes, ou contenus sur la dépression et l'anxiété qui créent un écho dangereux pour les plus fragiles.
De plus, l'absence de limites de temps par défaut pour les mineurs a été pointée du doigt. Meta laisse aux parents la tâche complexe de configurer des restrictions via des applications tierces ou des paramètres obscurs, alors même que l'interface est conçue pour minimiser le décrochage. Le verdict suggère que cette approche « laissez-faire » n'est plus acceptable. On peut s'attendre à ce que, sous la pression judiciaire, Meta soit forcée de modifier techniquement ses produits : désactivation par défaut de la lecture infinie pour les mineurs, limitation stricte des recommandations hors du cercle d'amis pour les moins de 16 ans.
Phase 2 du procès : la menace de la « nuisance publique »
Il est crucial de comprendre que le verdict du 24 mars 2026 ne met pas fin à l'affaire, mais n'ouvre que sa seconde phase. Le procès du Nouveau-Mexique est divisé en deux temps. La première phase, celle qui vient de se conclure, visait à établir la responsabilité de Meta — ce qui est maintenant chose faite. La seconde phase, prévue pour mai 2026, déterminera si les plateformes constituent ou non une « nuisance publique ».
Cette qualification juridique est bien plus menaçante pour l'entreprise car elle ne se contente pas de punir le passé, elle impose de corriger l'avenir. Si le juge retient la qualification de nuisance publique, cela pourrait déboucher sur des injonctions concrètes et obligatoires. Nous ne parlons plus ici de simples amendes, mais d'ordonnances judiciaires forçant Meta à modifier son code. Contrairement aux promesses de Mark Zuckerberg, qui peuvent changer selon le vent politique, une injonction judiciaire a force de loi.
La loi Miller renforcée par le précédent américain
L'onde de choc provoquée par le verdict de Santa Fe ne s'arrête pas aux frontières des États-Unis ; elle traverse l'Atlantique pour venir soutenir l'action législative en France. Le 26 janvier 2026, l'Assemblée nationale a adopté en lecture finale la proposition de loi portée par la députée Laure Miller, visant à interdire l'accès aux réseaux sociaux aux moins de 15 ans. Ce texte s'inscrit dans une lignée de régulations européennes de plus en plus strictes, incluant le DSA (Digital Services Act) de l'Union européenne, la loi SREN de 2024 en France, et les directives de la Commission européenne de juillet 2025.
L'adoption de cette loi n'a pas été sans heurts, les lobbyistes de la tech s'acharnant à faire valoir que de telles mesures étaient « disproportionnées ». Cependant, le verdict du Nouveau-Mexique change radicalement la donne politique. Quand un jury américain, dans un système juridique souvent perçu comme favorable aux entreprises, qualifie les pratiques de Meta d'inconscionables envers les enfants, il devient politiquement beaucoup plus difficile pour les opposants de la loi Miller de prétendre que l'inquiétude est exagérée.
Interdiction sous 15 ans et supervision de l'Arcom
La loi Miller prévoit un arsenal de mesures concrètes qui, couplées à la fragilité judiciaire nouvelle de Meta, deviennent redoutables. L'interdiction vise les principales plateformes : Instagram, TikTok, Facebook et Snapchat. La mise en œuvre de cette interdiction ne repose pas sur la bonne volonté des entreprises mais sur la supervision stricte de l'Arcom, le régulateur français de l'audiovisuel et du numérique. L'idée est simple : l'interdiction de l'accès aux moins de 15 ans devient une obligation de résultat pour les plateformes.
Pour s'assurer de la conformité, la loi impose des mécanismes de contrôle robustes. Par exemple, les influenceurs, vecteurs majeurs de la popularité de ces plateformes, seront désormais tenus d'ajouter un avertissement explicite stipulant que ces produits sont « dangereux pour les moins de 15 ans » lorsqu'ils en font la promotion. De plus, le profilage algorithmique des mineurs sera strictement restreint pour éviter la promotion de contenus addictifs ou dangereux.
Un changement de dynamique pour les régulateurs européens
Il existe un effet géopolitique indéniable à ce verdict. Pendant des années, les plateformes américaines ont opposé le Premier Amendement de la Constitution américaine et la philosophie du marché libre aux tentatives de régulation européennes. L'argument souvent avancé était que les États-Unis, berceau de l'innovation, ne régulaient pas de manière aussi drastique, suggérant que l'Europe était en train de se fossiliser.
Le verdict du Nouveau-Mexique brise cet argument en miettes. Il démontre que le doute sur la nocivité des modèles actuels des réseaux sociaux n'est plus une préoccupation franco-européenne isolée, mais un constat partagé désormais par des jurés américains au cœur de la patrie de la tech. Cela change radicalement la dynamique des négociations entre Bruxelles et la Silicon Valley. Les régulateurs européens peuvent désormais pointer du doigt Santa Fe et dire que ce ne sont pas seulement leurs valeurs, mais aussi une conclusion judiciaire aux États-Unis.
Conclusion
L'image de la « maison de cartes » évoquée par Sacha Haworth après le verdict n'est pas une simple métaphore journalistique, elle décrit littéralement la situation actuelle de Meta. Le 24 mars 2026 à Santa Fe, un premier carton majeur est tombé. En balayant l'argumentaire de défense de l'entreprise et en qualifiant ses pratiques d'inconscionables, le jury du Nouveau-Mexique a ouvert une brèche que plus de 40 États américains et des milliers de plaignants ne manqueront pas d'exploiter. L'effet domino est bel et bien en marche, amplifié par le procès parallèle de Los Angeles et les condamnations morales qui en découlent.
Certes, avec un appel prévu et des ressources financières quasi illimitées, Meta tentera de retarder l'inévitable. Mais le cours de l'histoire a changé de direction. Les enjeux ne sont plus seulement financiers, ils sont structurels. Avec la phase 2 du procès du Nouveau-Mexique qui arrive en mai 2026 pour statuer sur la notion de nuisance publique, et avec des lois comme celle de Laure Miller en France qui se trouvent soudainement renforcées par ce précédent américain, la marge de manœuvre des géants de la tech se rétrécit. Dans deux ans, Instagram sera-t-il encore reconnaissable pour un adolescent français ? La réponse dépendra des mois à venir, mais une chose est sûre : l'ère de l'impunité totale est révolue.