L'atmosphère était électrique dans la salle d'audience du tribunal de Los Angeles. Devant la juge Carolyn B Kuhl, l'air habituellement silencieux d'une institution judiciaire pesait soudainement de tout le poids des espoirs brisés de centaines de familles. Pour la première fois de l'histoire, Mark Zuckerberg, le visionnaire de la Silicon Valley transformé en accusé, ne faisait pas face à des sénateurs bienveillants ou à des actionnaires avides de profit, mais à un jury de citoyens ordinaires. Ce procès, qualifié de « bellwether trial » ou procès témoin, est bien plus qu'une simple dispute contractuelle ; il s'agit du premier test juridique majeur destiné à établir si les géants de la Tech doivent répondre de leurs actes devant plus de 1 600 plaintes similaires qui attendent dans les coulisses. L'homme qui a connecté le monde se retrouve aujourd'hui à devoir justifier pourquoi ses produits auraient déconnecté une génération entière de sa réalité, accusé d'avoir sciemment conçu des mécanismes pour créer une dépendance chimique chez les mineurs.

Une plaidoirie fracassante : « Addicting Brains Children »
Dès les premières minutes de son plaidoyer introductif, l'avocat Mark Lanier a planté le décor en utilisant une métaphore visuelle qui a marqué les esprits. Devant le jury, il a disposé des blocs de jouets en plastique formant les lettres A, B, C, symbolisant respectivement « Addicting », « Brains » et « Children ». Ce dispositif pédagogique frappant servait à illustrer l'accusation centrale : ces entreprises ont bâti des machines conçues spécifiquement pour créer une dépendance dans le cerveau des enfants, et elles l'ont fait sciemment. Lanier n'a pas mâché ses mots, affirmant que Meta et YouTube avaient délibérément ingéniéré leurs plateformes pour piéger l'attention des jeunes, transformant les réseaux sociaux en véritables distributeurs de dopamine numériques.
Cette ouverture offensive visait à déconstruire l'image de marque bienveillante des géants de la technologie. L'avocat a promis de révéler des documents internes inédits, des e-mails directs de Mark Zuckerberg et des études confidentielles que le grand public n'était jamais censé voir. L'objectif était clair : prouver que les dommages psychologiques subis par la plaignante principale, Kaley GM, n'étaient pas le fruit du hasard ou d'une vulnérabilité préexistante, mais le résultat direct d'une stratégie commerciale cynique. En mettant ainsi l'accent sur l'intentionnalité, les procureurs cherchent à faire basculer ce procès d'une simple affaire de responsabilité civile vers une condamnation morale et historique d'un modèle d'affaires prédateur.
Un duel judiciaire sous haute tension mondiale
Ce qui se joue à Los Angeles dépasse largement les frontières de la Californie. Si l'on retrouve souvent Mark Zuckerberg dans les congrès technologiques ou lors d'annonces de produits futuristes, sa posture à la barre des témoins était radicalement différente. Loin de contrôler le narratif comme il le fait lors des conférences Meta Connect, le PDG se trouvait sur la défensive, forcé de répondre à des questions précises sur la conception même des algorithmes d'Instagram et de Facebook. La tension palpable dans la salle reflète l'enjeu colossal de ce procès : il sert de test juridique pour une avalanche de plus de 1 600 autres affaires en attente aux États-Unis.

Les regards du monde entier étaient tournés vers cette salle d'audience, car le verdict de ce « procès témoin » pourrait dicter la conduite de toutes les batailles juridiques futures. Si les plaignants parviennent à prouver que l'addiction est une caractéristique inhérente du produit et non un abus de la part de l'utilisateur, cela ouvrirait la voie à des indemnisations massives et, surtout, à une refonte obligatoire des fonctionnalités les plus addictives. L'atmosphère était donc à celle d'un moment historique, similaire aux grands procès contre l'industrie du tabac des années précédentes, où un empire commercial vacillait sous le poids de ses propres secrets exposés au grand jour. Zuckerberg n'était plus le maître incontesté de son royaume numérique, mais un accusé tentant de justifier les fondations toxiques de son empire.
Une nuance publique qui dépasse le cadre judiciaire
Si Kaley GM est le visage de ce procès, elle n'est que la pointe émergée d'un iceberg géant. Ce procès de Los Angeles n'est pas une affaire isolée, mais l'épicentre d'un rassemblement historique de plus de 350 familles et de 250 districts scolaires qui unissent leurs forces pour dire « stop ». L'ampleur du phénomène est telle que l'accusation ne se contente plus de parler de négligence, mais évoque désormais une véritable « nuisance publique ». Il est fascinant de noter la position stratégique des autres acteurs : TikTok et Snapchat ont préféré payer des sommes astronomiques pour régler à l'amiable et ne pas aller au procès, laissant ainsi Meta et Google (via YouTube) seuls face à la tempête médiatique et judiciaire. Ce départ soudain des autres accusés soulève d'inquiétantes questions sur ce qu'ils avaient à cacher et sur la solidité du dossier des plaignants.
C'est dans ce contexte tendu que l'avocat Mark Lanier a prononcé des mots qui résonnent encore dans les murs du tribunal. Lors de son plaidoyer introductif, il a affirmé avec force que ces entreprises avaient « construit des machines conçues pour créer une dépendance chez les cerveaux des enfants, et qu'elles l'ont fait sciemment ». Cette phrase choc, appuyée par la présentation visuelle des blocs de jouets, pose le cadre de l'enquête. Il ne s'agit plus d'une série d'erreurs de parcours ou de bugs logiciels, mais d'une stratégie délibérée, industrialisée, visant à capturer l'attention des jeunes pour la monnayer, peu importe le coût psychologique. Ce procès pourrait bien marquer un tournant irréversible dans la manière dont la société civile appréhende la responsabilité des plates-formes numériques.
Kaley GM : l'enfer d'une adolescente à neuf ans
Au cœur de cette bataille judiciaire, il ne s'agit pas de chiffres d'affaires ni de parts de marché, mais de l'histoire poignante d'une jeune femme aujourd'hui âgée de vingt ans, connue sous les initiales de Kaley GM pour protéger son identité. Son parcours, qui sert de colonne vertébrale à l'accusation, commence tragiquement tôt : elle n'avait que neuf ans lorsqu'elle a créé son compte Instagram, contournant avec une facilité déconcertante l'interdiction formelle de s'inscrire avant treize ans. À cet âge, le cerveau est une éponge en pleine formation, dépourvue des défenses cognitives nécessaires pour résister aux assauts psychologiques d'une ingénierie de l'attention sophistiquée. Ce qui devait être un divertissement innocent s'est rapidement mué en cauchemar : l'algorithme, avide d'engagement, l'a très vite exposée à des contenus toxiques, propulsant l'enfant dans une spirale descendante vers une dépression sévère, une anxiété paralysante et une dysmorphie corporelle invalidante.

Le témoignage de Kaley GM révèle avec une crudité terrifiante la faille fondamentale dans le système de sécurité de Meta : l'entreprise prétend interdire les moins de treize ans, mais ne fait absolument rien pour vérifier l'âge réel des utilisateurs au-delà d'une simple case à cocher. Sa mère a tenté, en vain, de mettre des barrières, mais la puissance de l'addiction programmée par l'application a rapidement surpassé l'autorité parentale. L'enfant s'est retrouvée piégée dans un miroir déformant, où les filtres de beauté et les corps irréalistes des influenceurs ont nourri une haine de soi destructrice. Ce dossier humain brise le caractère abstrait du débat technologique pour nous rappeler que derrière chaque statistique d'utilisation, il y a la santé mentale fragile d'un enfant qui a été sacrifiée sur l'autel de la croissance.
Une enfance volée par l'algorithme
Le récit de Kaley GM n'est pas une anecdote isolée, mais l'archétype d'une génération sacrifiée. Les documents déposés au tribunal montrent comment une enfant innocente, intéressée par la mode ou les animaux, a été progressivement guidée vers des contenus de plus en plus sombres. L'algorithme d'Instagram, conçu pour maximiser le temps de passé, a rapidement compris que la peur et l'insécurité étaient des moteurs d'engagement puissants. En l'exposant à des images de corps retouchés et de vies prétendument parfaites, la plateforme a nourri une angoisse constante qui a maintenu l'enfant connectée, attendant désespérément la prochaine validation sous forme de « like ». C'est un cercle vicieux : plus elle se sentait mal, plus elle consultait l'application pour se changer les idées, et plus elle y passait de temps, plus l'algorithme lui servait de contenus anxiogènes.
La défense de Meta tente de minimiser ce cas en pointant du doigt les problèmes familiaux ou une vulnérabilité préexistante. L'avocat Paul Schmidt a d'ailleurs évoqué des troubles antérieurs et une famille difficile pour dédouaner la plateforme. Cependant, cette approche s'effondre face à la systématicité du problème. Des milliers d'autres enfants, sans antécédents psychiatriques particuliers, ont développé les mêmes symptômes aux mêmes âges. L'histoire de Kaley GM agit comme un révélateur : elle montre comment la technologie peut exacerber les fragilités existantes jusqu'au point de rupture, agissant comme un accélérateur de troubles mentaux qui, autrement, auraient peut-être pu être gérés avec un accompagnement classique.
La défense de Meta face à la réalité de terrain
Face à ce récit déchirant, la défense de Meta a adopté une stratégie classique : celle du transfert de responsabilité. Paul Schmidt, l'avocat de l'entreprise, a tenté de convaincre le jury que les problèmes de Kaley GM résultaient exclusivement de son environnement familial difficile, citant des témoignages de négligence et de conflits parents-enfants. Cette ligne de défense vise à présenter Instagram comme un simple témoin passif, un miroir qui ne ferait que refléter les problèmes de la société, sans les créer ni les aggraver. Pour les avocats de Meta, l'application n'est qu'un outil, et c'est à l'utilisateur ou à ses parents de savoir s'en servir correctement.
Cependant, cette argumentation peine à masquer l'évidence : quelque soit l'environnement familial, aucun parent ne peut rivaliser avec une armée d'ingénieurs en psychologie comportementale. Décrire Instagram comme un outil passif est une insulte à l'intelligence collective, alors que la plateforme dépense des milliards en recherche et développement pour rendre son interface précisément irrésistible. L'argument de la « responsabilité parentale », souvent efficace dans les tribunaux pour d'autres types de produits, semble particulièrement faible ici, car il nie la nature même de la conception persuasive des réseaux sociaux actuels.
L'email de 2015 qui ébranle la défense

La défense de Meta repose souvent sur l'idée que les effets néfastes de ses plateformes seraient des conséquences inattendues et malheureuses d'innovations bienveillantes. Cependant, l'enquête a mis au jour une pièce à conviction qui risque de pulvériser cet argument : un email interne datant de 2015, envoyé par Mark Zuckerberg lui-même à ses équipes. Dans ce courriel, le fondateur de Facebook ne parle pas de connexion humaine ni de partage, mais expose avec une précision chirurgicale un objectif commercial froid : « le temps passé doit augmenter de 12% ». Ce document, projeté sur écran devant le jury stupéfait, prouve que l'objectif de rétention de l'attention était la priorité absolue, bien avant la moindre considération éthique ou sécuritaire. C'est la preuve matérielle que ce n'était pas un bug, mais une fonctionnalité centrale de la stratégie de l'entreprise.
L'impact de cet email est dévastateur car il établit un lien direct entre les objectifs de croissance business et la conception des produits. Pour atteindre cette augmentation de 12% du temps de cerveau disponible, les ingénieurs et les designers n'avaient d'autre choix que de rendre l'expérience « irrésistible », un terme utilisé maintes fois dans les communications internes. Cela signifiait exploiter les vulnérabilités psychologiques des adolescents, qu'il s'agisse de leur besoin de validation sociale ou de leur peur de l'exclusion. Zuckerberg a d'ailleurs reconnu devant le jury avoir donné ces objectifs de croissance « à un stade antérieur de l'entreprise », tentant de minimiser sa portée actuelle, mais le mal était fait : la preuve de l'intentionnalité était désormais publique, indiscutable et accablante.
Preuve de l'intentionnalité
Cet email de 2015 est bien plus qu'une simple instruction administrative ; il est la pierre angulaire de l'accusation de préméditation. Il démontre que la quête de l'addiction n'est pas un accident de parcours ni une dérive récente, mais qu'elle est inscrite dans l'ADN de l'entreprise depuis ses phases de croissance. Loin de l'image d'Épinal du garçon de génie qui veut connecter le monde, on découvre un PDG impitoyable qui fixe des quotas de temps de cerveau comme d'autres fixent des quotas de vente. Cette révélation contraste violemment avec le discours public de l'entreprise, qui prétend continuellement que les changements d'interface sont destinés à « améliorer l'expérience utilisateur ».
La présentation de cet email a forcé Mark Zuckerberg à adopter une posture défensive maladroite. Interrogé sur ce point précis, il a tenté de faire valoir que ce document datait d'une époque où l'entreprise était encore jeune et en phase d'apprentissage. Pourtant, cette excuse ne tient pas la route face à la réalité des faits : les années suivantes n'ont pas vu un ralentissement de cette stratégie, mais au contraire une intensification avec l'arrivée d'outils encore plus captivants comme les Stories ou l'exploration par hashtag. L'email de 2015 n'est pas une erreur de jeunesse, c'est la déclaration de politique d'une entreprise qui a fait du captage de l'attention son modèle économique exclusif.
La course effrénée à l'engagement
L'analyse de cet email de 2015 révèle une dissonance morale flagrante au cœur de la culture d'entreprise de Meta. À l'époque où cet objectif de 12% d'augmentation du temps passé était fixé, les premières alertes concernant l'impact des réseaux sociaux sur la santé mentale commençaient déjà à émerger au sein même de l'entreprise. Pourtant, ces avertissements ont été systématiquement ignorés ou étouffés au nom de la croissance. Le message était clair : l'optimisation du « time spent » passait avant le bien-être des utilisateurs. Pour maximiser ce temps, les designers ont été encouragés à supprimer toute friction, tout signal de fin, tout élément qui pourrait inviter l'utilisateur à quitter l'application.
Cette dynamique a créé une culture interne où la sécurité des mineurs est devenue une variable d'ajustement, un obstacle à contourner plutôt qu'un paramètre à respecter. Les ingénieurs étaient récompensés pour leur capacité à augmenter l'engagement, créant une incitation perverse à l'innovation dans les techniques de rétention, aussi manipulatrices soient-elles. En mettant cet email en lumière, l'accusation ne cherche pas seulement à prouver une faute passée, mais à déconstruire le modèle économique actuel de la Big Tech, montrant que la priorité donnée à la croissance financière structurellement incompatible avec la protection des utilisateurs les plus vulnérables.
Ingénierie de la dépendance : les rouages du piège
Une fois l'intention établie, il fallait comprendre comment elle s'est concrétisée en termes de design d'interface. C'est ici que l'enquête bascule dans une explication pédagogique fascinante, nous dévoilant les rouages invisibles qui régissent notre quotidien numérique. L'accusation s'est attachée à démontrer que chaque aspect de l'interface utilisateur d'Instagram et de YouTube a été mûrement réfléchi pour créer un état de dépendance. Ce n'est pas le fruit du hasard si l'on perd la notion du temps en scrollant sur son téléphone : c'est le résultat de centaines de milliers d'heures de travail d'experts en neurosciences et en psychologie comportementale, rémunérés par les géants de la Tech pour rendre l'expérience impossible à abandonner.

L'analyse des mécanismes techniques révèle une sophistication effrayante. Nous ne sommes pas face à de simples sites web, mais à des environnements conçus pour exploiter les failles de notre cerveau mammifère. La séduction opère par des micro-interactions répétitives : la vibration du téléphone lors d'une notification, l'aspect visuel satisfaisant des boutons de like, ou le sentiment de suspense permanent quant à ce que le prochain post va révéler. Ces éléments déclenchent des boucles de récompense similaires à celles activées par les jeux d'argent ou la nourriture, transformant l'application en une machine à distribuer de la dopamine. Pour un adolescent dont le cortex préfrontal, siège du contrôle des impulsions, est encore en développement, ces mécanismes sont d'une puissance quasi irrésistible.
Le comparatif avec l'industrie du tabac
Face à ce mur de preuves, les procureurs ont développé une analogie qui pourrait bien devenir le narratif dominant de cette ère numérique : la comparaison entre les réseaux sociaux et l'industrie du tabac. Mark Lanier n'a pas hésité à qualifier Instagram et YouTube de véritables « machines à sous » modernes, conçues pour libérer des bouffées de dopamine dans le cerveau de l'utilisateur de la même manière que la nicotine agit sur le système nerveux. Ce rapprochement n'est pas anecdotique ; il ancre ce procès dans l'histoire juridique américaine, rappelant les combats acharnés menés contre les géants du tabac qui avaient longtemps nié la toxicité et l'addictivité de leurs produits.
Cette thèse s'appuie sur le concept désormais célèbre de « l'économie de l'attention » (attention economy). Les ingénieurs de la Silicon Valley, ces nouveaux architectes du comportement humain, ont délibérément utilisé des mécanismes psychologiques issus du comportementalisme pour piéger les jeunes cerveaux. L'accusation soutient que l'addiction n'est pas un effet secondaire regrettable du modèle économique, mais qu'elle en est le moteur même. Sans l'addiction, il n'y a pas de temps passé suffisant, et sans temps passé, il n'y a pas de publicité à vendre. En exposant cette logique implacable au grand jour, le procès force le public à regarder derrière le rideau de la « magie » technologique pour y découvrir une machinerie de profit cynique et destructrice.
Dopamine et FOMO : la conception calculée du scroll infini
Au-delà de l'algorithme de contenu, ce sont les mécanismes d'interface de base qui sont incriminés pour leur rôle dans l'ancrage des habitudes compulsives. Le « scroll infini » (infinite scroll) est sans doute l'invention la plus perverse de cette dernière décennie. En supprimant le signal naturel de fin de page, il empêche l'utilisateur de faire une pause cognitive, de prendre une décision consciente de s'arrêter. On entre dans un état de transe légère, une sorte de flux continu où l'on consomme du contenu sans réfléchir, hypnotisé par la promesse qu'il y a toujours quelque chose d'intéressant juste en dessous. C'est une suppression pure et simple du libre arbitre de l'utilisateur, remplacé par une inertie mécanique du pouce.
À cela s'ajoute l'exploitation systématique du « FOMO » (Fear Of Missing Out), la peur de manquer quelque chose. Les notifications constantes, les badges rouges, et la mise en avant de ce que les « amis » aiment sont autant de leviers actionnés pour créer une anxiété permanente. Cette anxiété ne se dissipe que lorsque l'utilisateur consulte l'application, créant ainsi un cycle vicieux : l'application crée l'anxiété, puis propose un soulagement temporaire (la consultation), avant de recréer l'anxiété dès que l'on pose le téléphone. C'est une conception calculée pour enfermer l'utilisateur, et particulièrement l'adolescent en quête de validation sociale, dans une cage dorée numérique dont il devient extrêmement difficile de sortir sans aide extérieure.
La page « Explore » : le glissement vers le contenu nocif
Le point culminant de cette ingénierie de la dépendance réside sans doute dans le fonctionnement de la page « Explore » d'Instagram, décrite dans les fameux « Facebook Papers » comme un véritable « produit addictif ». L'accusation a démontré comment cet algorithme fonctionne comme des poupées russes de plus en plus sombres. L'utilisateur, souvent un jeune attiré par des contenus innocents comme la mode ou le sport, se voit proposer progressivement des contenus de plus en plus extrêmes pour capter et retenir son attention. Ce glissement s'opère de manière insidieuse, l'algorithme testant les limites de l'utilisateur et poussant toujours plus loin dans la radicalité du contenu proposé.
Cette mécanique peut entraîner, même accidentellement, un utilisateur vers des abîmes tels que la promotion de troubles de l'alimentation (anorexie, boulimie) ou de l'automutilation. Les statistiques issues des enquêtes du Wall Street Journal sont éloquentes et ont été brandies devant le tribunal : 32% des filles déclarent se sentir plus mal à l'aise dans leur corps à cause d'Instagram. Ce n'est pas seulement une question de mauvaise rencontre sur le réseau, mais la conséquence directe d'un système de recommandation qui privilégie l'engagement émotionnel, même négatif, sur la sécurité. Le choc visuel et émotionnel génère du temps de passé, et donc de l'argent, ce qui pousse l'algorithme à favoriser ces contenus nuisibles.
Les algorithmes de YouTube ciblant les parents
Pour ce qui est de YouTube, l'accusation a soulevé un point particulièrement troublant concernant la stratégie de ciblage des jeunes audiences. Il est apparu que YouTube avait intentionnellement orienté ses efforts marketing et de contenu vers les utilisateurs jeunes parce qu'il pouvait « charger les annonceurs plus cher » que sur sa plateforme dédiée YouTube Kids. Mark Lanier a accusé YouTube de tenter de profiter de parents occupés à la recherche d'un service de « garde d'enfants numérique ». Cette stratégie révèle une manipulation cynique des besoins des familles modernes : le géant de la vidéo savait que les parents laisseraient leurs enfants devant YouTube principal, et a activement encouragé cette pratique pour maximiser ses revenus publicitaires.
Cette approche a conduit à une situation où des enfants, sans la supervision d'un adulte, se retrouvent exposés à la « rabbit hole » (le terrier du lapin) de YouTube, où des vidéos inappropriées ou radicales s'enchaînent sans fin. Contrairement à Instagram, qui est centré sur l'image et le statut social, YouTube utilise l'autoplay pour maintenir l'utilisateur en haleine, passant de dessins animés innocents à des vidéos conspirationnistes ou effrayantes en quelques clics. Le procès met en lumière le fait que ces entreprises ne sont pas de simples plateformes neutres, mais des éditeurs actifs qui façonnent le contenu consommé par les mineurs dans un but lucratif.
Le prix humain de l'engagement
L'argument économique de la défense, selon lequel ces entreprises cherchent simplement à « gagner » sur le marché, se brise contre la réalité des dégâts humains. Les recherches internes de Facebook, révélées au public lors de ce procès, contiennent des statistiques glaçantes qui font froid dans le dos. L'une des plus troublantes concerne le lien direct entre l'utilisation d'Instagram et les pensées suicidaires chez les adolescentes. Pour les adolescentes britanniques ayant eu des pensées suicidaires, pas moins de 13% attribuaient ce mal-être directement à leur utilisation de la plateforme. Ce chiffre ne vient pas d'une association de parents en colère, mais des propres études de l'entreprise.
Ce pourcentage énorme met en lumière l'équation morale terrible que Meta a résolue en faveur du profit. L'entreprise savait que maximiser l'engagement et le temps passé sur la plateforme avait pour corollaire direct une augmentation des risques de dépression sévère, d'anxiété et de pensées suicidaires chez ses utilisatrices les plus jeunes. Pourtant, non seulement l'entreprise n'a rien fait pour corriger le tir, mais elle a continué à pousser ces algorithmes toujours plus loin dans la quête de l'attention. Le « prix de l'engagement » se paye en santé mentale brisée, et ce procès tente enfin de faire rendre des comptes à ceux qui ont encaissé les bénéfices de ce marché macabre.
« Gagner avec les ados » : une stratégie prédatrice

La défense de Meta a longtemps tenté de se cacher derrière la règle des 13 ans, affirmant que leurs plateformes ne sont pas destinées aux enfants plus jeunes et que l'entreprise fait tout son possible pour les éloigner. Pourtant, les documents révélés au cours du procès racontent une histoire radicalement différente, celle d'une stratégie délibérée et centrale pour capturer cette audience interdite. Il ne s'agissait pas d'une négligence périphérique, mais d'un plan d'attaque méthodique pour s'emparer de la prochaine génération d'utilisateurs avant même qu'ils n'aient l'âge légal de s'inscrire. Cette stratégie, baptisée « Gagner avec les ados » dans les mémos internes, montre que l'âge légal de 13 ans n'était pas une limite de sécurité, mais un simple obstacle technique à contourner au nom du business.
Cette approche prédatrice repose sur une logique de « croissance à vie » (lifetime value). Si l'on habitue un enfant de dix ans aux mécanismes dopaminergiques d'Instagram, on s'assure un client docile et rentable pour les dix prochaines années. L'entreprise savait pertinemment qu'une fois les habitudes ancrées, l'adolescent ne quitterait pas la plateforme même s'il atteignait l'âge adulte et avait d'autres préoccupations. Les chiffres présentés au tribunal sont éloquents sur le succès de cette stratégie d'infiltration : à un moment donné, 30% des enfants américains âgés de 10 à 12 ans utilisaient Instagram, malgré l'interdiction officielle. C'est une violation massive des propres règles de l'entreprise, tolérée et même encouragée par la direction tant elle permettait d'assurer la domination future du marché.
Le mémo scandaleux sur les « Tweens »
Un document stratégique particulièrement accablant a été présenté au jury, exposant sans fard la pensée de la direction de Meta. Ce mémo affirmait noir sur blanc : « Si nous voulons gagner gros avec les ados, nous devons les faire entrer alors qu'ils sont des 'tweens' (enfants pré-adolescents) ». Ce document démontre que le ciblage des enfants de moins de 13 ans n'était pas une erreur de parcours ou une conséquence malheureuse de l'absence de vérification d'âge, mais bel et bien un objectif explicite de l'entreprise. La stratégie était claire : ignorer la barrière des 13 ans pour capter le cerveau de l'enfant avant qu'il ne devienne trop critique et trop exigeant.
Ce mémo prouve que la sécurité n'était même pas une variable dans l'équation. La seule chose qui comptait était l'acquisition de parts de marché sur une population vulnérable. Les équipes marketing et produit étaient chargées de trouver des moyens de rendre l'application attrayante pour des enfants de neuf ou dix ans, en développant des fonctionnalités spécifiques ou en promouvant des contenus qui résonnent avec cette tranche d'âge. Cette approche cynique a conduit à une situation où des millions d'enfants se sont retrouvés exposés à des plateformes conçues pour des adultes, sans aucune protection adaptée à leur fragilité psychologique. C'est cette préméditation, cette volonté délibérée de contourner la loi pour le profit, qui rend la défense de Meta si fragile face au jury.
La faillite de la vérification d'âge
Pour tenter de se dédouaner, Zuckerberg et son équipe ont maintenu que l'entreprise interdisait formellement les moins de 13 ans. Cependant, un email interne de 2019 adressé à Zuckerberg et à trois autres hauts dirigeants par Nick Clegg, ancien vice-Premier ministre britannique devenu responsable des affaires globales de Meta, a pulvérisé cet argument. Clegg écrivait que les limitations d'âge « non appliquées » rendaient difficile pour l'entreprise de prétendre qu'elle « faisait tout ce qu'elle pouvait » pour protéger les enfants. Ce document témoigne d'une conscience aiguë, au plus haut niveau de la hiérarchie, que la politique de l'entreprise était un mensonge : on affichait une interdiction, mais on ne mettait aucun moyen technique en œuvre pour la faire respecter.
Zuckerberg a reconnu devant le tribunal « regretter de ne pas avoir progressé plus vite » pour identifier les utilisateurs de moins de 13 ans, ajoutant que l'entreprise avait atteint le « bon endroit au fil du temps ». Mais ces regrets sonnent faux face aux preuves matérielles d'un ciblage délibéré des mineurs. Comme l'a souligné l'accusation, on ne peut pas à la fois cibler les enfants comme source de croissance future et prétendre vouloir les interdire de la plateforme. La vérification de l'âge, techniquement possible pour d'autres secteurs comme celui des jeux d'argent en ligne ou des sites de streaming adultes, a toujours été rejetée par Meta car elle constituerait une barrière à l'inscription et donc à la croissance.
Zuckerberg face à ses contradictions
Le moment le plus dramatique de cette procédure a sans doute été la confrontation directe entre Mark Zuckerberg et les preuves accablantes accumulées par les avocats des plaignants. Assis à la barre des témoins, le PDG de Meta semblait souvent agacé, répétant à l'envi des phrases comme « Vous déformez mes propos » ou « C'est une mauvaise caractérisation de ce que j'ai dit ». Face aux emails et aux mémos internes, Zuckerberg a tenté de jouer la carte du technophile incompris, affirmant que les avocats sortaient des éléments de leur contexte. Pourtant, cette ligne de défense apparaissait fragile face à la montagne de documents écrits de sa propre main ou validés par sa direction, qui montrent une cohérence troublante dans la priorité donnée à la croissance sur la sécurité.

Cette tension dans la salle d'audience révèle une dissonance cognitive flagrante au sein de la direction de Meta. D'un côté, il y a le discours public lisse et bienveillant, axé sur la protection de la communauté et le bien-être des utilisateurs. De l'autre, il y a la réalité interne, faite d'emails exigeant plus de temps de cerveau, de mémos ciblant les enfants de dix ans, et de recherches internes alarmantes classées au secret. Zuckerberg a tenté de minimiser ces preuves en arguant qu'elles dataient d'un « stade antérieur de l'entreprise », mais ce temps passé n'est pas si ancien et, surtout, les conséquences de ces décisions se font encore sentir aujourd'hui. L'éthique de la défense apparaît dès lors comme une tentative de masquer une culture d'entreprise profondément toxique.
« Vous déformez mes propos » : une stratégie défensive
Mark Zuckerberg a adopté une posture de victime face à l'interrogatoire de Mark Lanier, accusant systématiquement l'avocat de tirer ses propos hors de leur contexte. Lorsqu'on lui a présenté un rapport de recherche de 2019 commandé par Instagram à une firme externe, qui montrait que les adolescents se sentaient « accrochés malgré le sentiment que cela leur donnait », Zuckerberg a tenté de se distancier en soulignant que l'étude n'avait pas été réalisée en interne. Pourtant, le contenu même du rapport, citant les adolescents eux-mêmes parlant d'un « récit de dépendance » (addicts' narrative) concernant leur usage d'Instagram, était accablant.
Ce refus d'assumer la paternité intellectuelle des mécanismes d'addiction est le cœur de la défense de Meta. L'entreprise admet que des problèmes existent, mais les rejette systématiquement sur une utilisation abusive par l'utilisateur ou sur des facteurs extérieurs, refusant de reconnaître que la conception du produit encourage cette utilisation abusive. C'est un peu comme si un fabricant de tabac affirmait que ce n'est pas la cigarette qui crée l'addiction, mais la façon dont le fumeur tire sur la cigarette. Le jury a semblé peu convaincu par ces pirouettes sémantiques, d'autant que les propres emails de Zuckerberg, exigeant une augmentation du temps passé, contredisent directement cette thèse de l'innocence conceptuelle.
L'échec des outils de contrôle parental
Pour tenter de dédouaner sa plateforme, Zuckerberg et ses avocats ont ressorti l'argument classique de la « responsabilité parentale ». Selon eux, c'est aux parents de surveiller ce que font leurs enfants et d'imposer des limites, pas aux entreprises de modifier leurs produits pour les sécuriser. Cet argument, qui fonctionne bien dans les discours publics, s'est effondré sous la pression des témoignages poignants des victimes et de leurs familles. Annie McGrath, la mère d'un jeune garçon de 13 ans, Griffin, qui a perdu la vie après avoir tenté le « jeu de l'étranglement » popularisé sur YouTube, a livré une réplique dévastatrice qui a résonné dans toute la salle d'audience.
« Écouter ses parents, c'est la dernière chose que fera un adolescent. Les parents n'ont aucune chance », a-t-elle déclaré avec une justesse terrifiante. Son témoignage met le doigt sur une réalité que la Tech ignore : les outils de contrôle parental sont inopérants face à des algorithmes plus puissants et plus persuasifs que l'autorité parentale. Demander à des parents de lutter contre une armée de scientifiques, de psychologues et d'ingénieurs payés des millions pour rendre l'application irrésistible est un combat perdu d'avance. L'accusation a démontré que Meta sait pertinemment que l'autorité parentale s'efface naturellement à l'adolescence et que l'entreprise a profité de cette faille générationnelle pour s'insérer comme l'influence dominante dans la vie des jeunes.
L'argument de la défense selon lequel Meta a « mis en place des outils » pour aider les parents a été littéralement balayé par un chiffre clé tiré des propres documents de l'entreprise : seulement 1,1% des adolescents activent les limites de temps d'écran disponibles sur l'application. Ce chiffre éloquent prouve que la défense de Meta n'est qu'une communication vide de sens. Si les outils existent mais ne sont pas utilisés, c'est parce que la conception même de l'app incite, structurellement, à ne pas les utiliser. Pourquoi un adolescent voudrait-il s'imposer une limite alors que l'application est conçue pour lui donner du plaisir immédiat et une validation sociale ?
Après le verdict de Los Angeles : quels changements pour votre Instagram ?
Ce procès à Los Angeles représente un moment charnière dans l'histoire de la technologie et de la société. En forçant Mark Zuckerberg à répondre de ses choix de conception devant un jury, la justice américaine met à nu les contradictions d'un modèle économique qui a prospéré sur l'exploitation des vulnérabilités humaines. Quel que soit le verdict final, le divorce est consommé entre la vision naïve d'une technologie bienveillante qui connecte le monde et la réalité d'une industrie qui a sacrifié la santé mentale d'une génération sur l'autel de l'engagement et de la publicité. Les révélations sur les stratégies de ciblage des enfants, les mécanismes d'addiction calculés et la dissimulation des risques internes ont changé la donne à jamais.
Les répercussions de ce verdict devraient se faire sentir bien au-delà des frontières des États-Unis. On entre dans une phase de régulation accrue où la question de la responsabilité ne sera plus écartée par un simple clic sur « conditions d'utilisation ». Pour les parents, cela signifie une redistribution des cartes : ils ne seront plus seuls face à des algorithmes tout-puissants, mais soutenus par des cadres légaux exigeant que la sécurité soit le défaut (safety by design). Le débat ne porte plus sur la suppression des réseaux sociaux, mais sur leur refonte pour qu'ils servent l'humain plutôt que de l'asservir. Ce procès marque sans doute la fin de l'innovation sans frein et le début d'une nécessaire éthique du numérique, où le respect du temps de cerveau et de l'intégrité psychologique de chacun deviendra la norme, et non l'exception.
Supprimer l'infinite scroll et les filtres beauté : les exigences radicales des juges
Face à la gravité des accusations, 29 procureurs généraux américains ont uni leurs forces pour exiger des changements radicaux auprès de Meta, allant bien au-delà de simples avertissements. Leurs revendications, si elles sont entérinées par le tribunal, pourraient bouleverser l'expérience utilisateur de Instagram telle que nous la connaissons. Au cœur de ces exigences figure la suppression systématique de l'infinite scroll, ce mécanisme qui nous piège dans une boucle sans fin. En forçant l'app à s'arrêter après un certain nombre de contenus, on redonnerait à l'utilisateur la possibilité de reprendre le contrôle de son temps et de son attention. De même, la fin de l'autoplay sur YouTube est réclamée pour briser le cycle de consommation passive qui maintient les enfants, et les adultes, collés à l'écran pendant des heures.
Mais les mesures proposées ne s'arrêtent pas là. Les procureurs demandent également la suppression pure et simple de tous les comptes appartenant à des utilisateurs de moins de 13 ans, ainsi que l'effacement des données collectées illicitement sur ces mineurs. Enfin, une attaque directe est portée contre les filtres de beauté et les outils de retouche corporelle, souvent pointés du doigt pour leur rôle dans la dysmorphie corporelle chez les adolescentes. En exigeant leur disparition, les juges visent à mettre fin à la distorsion de la réalité qui alimente l'insatisfaction chronique des jeunes utilisateurs. Ces changements, s'ils sont appliqués, rendraient les applications sans doute moins « captivantes » et donc potentiellement moins rentables à court terme, mais ils restaureraient une dimension de sécurité essentielle.
De l'Australie aux États-Unis : la vague réglementaire mondiale
Ce qui se passe à Los Angeles n'est pas un phénomène isolé, mais le symptôme d'une prise de conscience mondiale. Les législateurs partout sur la planète commencent à prendre la mesure du danger posé par les algorithmes non régulés. L'Australie a ouvert la voie en interdisant purement et simplement les réseaux sociaux aux moins de 16 ans, une mesure draconienne mais efficace qui a déjà conduit Snapchat à bloquer plus de 415 000 comptes sur son territoire. Cette décision audacieuse prouve que la volonté politique peut briser l'inertie de la Big Tech et servir de précédent pour d'autres démocraties.
En Europe, le vent tourne également. Le Royaume-Uni, le Danemark, l'Espagne et la France réfléchissent activement à des mesures similaires, cherchant comment adapter les législations existantes pour protéger les mineurs sans pour autant censurer l'Internet. Le procès de Los Angeles fournit le carburant juridique et moral nécessaire à ces initiatives en démontrant que l'autorégulation a échoué. On assiste à la fin de l'ère du Far West digital, où les entreprises technologiques pouvaient opérer en toute impunité, déguisant leur quête de profit en innovation. Désormais, la protection des plus vulnérables passe avant la liberté d'entreprise, et ce procès historique pourrait bien être le point de bascule qui marque le début d'une nouvelle ère de responsabilité numérique.