
Voici l'article corrigé avec les fautes d'orthographe, de grammaire, d'accents et de typographie rectifiées.
Meta a déployé une nouvelle technologie d'intelligence artificielle capable d'estimer l'âge des utilisateurs en analysant la structure osseuse visible sur les photos et vidéos publiées sur Facebook et Instagram. Cette mesure, annoncée officiellement le 5 mai 2026, intervient sous la pression des régulateurs européens qui viennent d'épingler le géant américain pour son incapacité à empêcher les moins de 13 ans d'accéder à ses plateformes. Mais derrière l'objectif affiché de protection des mineurs, cette innovation soulève des questions inédites sur la surveillance biométrique des adolescents.

Les indices visuels scrutés par l'algorithme
La technologie déployée par Meta ne ressemble à rien de ce qui existait jusqu'à présent sur les réseaux sociaux. L'intelligence artificielle examine les contenus visuels publiés par les utilisateurs pour y déceler des indices morphologiques permettant d'estimer un âge approximatif.
L'IA de Meta analyse plusieurs éléments physiques visibles sur les photos et vidéos. La taille apparente de la personne, les proportions du corps, et surtout la structure osseuse du visage constituent les principaux indicateurs. L'algorithme repère des caractéristiques comme la forme de la mâchoire, l'écartement des yeux, ou encore le développement des pommettes, qui évoluent avec la croissance.
Meta précise que son système examine également les indices textuels et comportementaux. Les publications, commentaires, biographies et légendes de photos sont analysés pour détecter des mentions d'anniversaire, de rentrée scolaire ou d'autres événements liés à l'âge. Un adolescent qui poste une photo de son brevet des collèges ou qui commente « bonne fête maman » peut ainsi voir son âge estimé plus précisément.
Ce que Meta affirme ne pas faire
L'entreprise insiste lourdement sur un point : « Il ne s'agit pas de reconnaissance faciale. » Dans son annonce officielle du 5 mai 2026, Meta explique que son IA « examine des thèmes généraux et des indices visuels, par exemple la taille ou la structure osseuse, pour estimer l'âge approximatif d'une personne ; elle n'identifie pas la personne spécifique sur l'image. »
Cette distinction est cruciale pour Meta. La reconnaissance faciale, qui permet d'identifier nommément un individu à partir de son visage, est strictement encadrée en Europe par le RGPD et fait l'objet de nombreuses critiques. L'analyse osseuse, elle, ne chercherait pas à savoir qui vous êtes, mais simplement quel âge vous pourriez avoir. Une nuance que les défenseurs des droits numériques jugent pour le moins discutable.
Pourquoi Meta agit sous la pression des régulateurs
Cette nouvelle fonctionnalité n'arrive pas par hasard. Meta subit une pression réglementaire sans précédent, particulièrement en Europe.
La mise en demeure de la Commission européenne

Le 29 avril 2026, soit une semaine avant l'annonce de Meta, la Commission européenne a rendu une décision préliminaire accablante. Elle estime que Meta a enfreint le Digital Services Act (DSA) en ne mettant pas en place de mesures efficaces pour empêcher les moins de 13 ans d'utiliser Instagram et Facebook.
Actuellement, la seule barrière à l'entrée pour les mineurs consiste à demander leur date de naissance lors de l'inscription. Un système que n'importe quel enfant de 10 ans peut contourner en entrant une fausse date. La Commission considère que ce dispositif est insuffisant et exige des mesures « robustes de vérification de l'âge ».
Cette décision s'inscrit dans une série d'actions contre les grandes plateformes. TikTok avait déjà été épinglé en février 2026 pour des manquements similaires. Meta est donc le deuxième géant du numérique à se voir notifier une infraction au DSA sur ce sujet, comme le rapporte The Guardian.
Les amendes qui font réfléchir
Le DSA prévoit des sanctions financières dissuasives. En cas de manquement confirmé, Meta risque une amende pouvant atteindre 6 % de son chiffre d'affaires mondial. Pour une entreprise qui a généré plus de 160 milliards de dollars de revenus en 2025, cela représente plusieurs milliards d'euros potentiels.
Le verdict contre Meta dans l'affaire du Nouveau-Mexique a également montré que la justice américaine commence à prendre au sérieux la sécurité des enfants sur les plateformes. Lors d'une audition au Sénat américain intitulée « Protecting Kids Online », des dizaines de témoignages ont mis en lumière l'ampleur des défaillances des réseaux sociaux face aux risques encourus par les mineurs. Cette défaite judiciaire a sans doute accéléré la mise en place de solutions techniques.
Conséquences concrètes pour les adolescents français
Concrètement, que se passe-t-il quand un adolescent français publie une photo sur Instagram ou Facebook ? Le système entre en action, mais pas nécessairement de manière immédiate.
Le déclenchement de l'analyse
L'analyse osseuse n'est pas activée systématiquement sur tous les comptes. Meta semble cibler prioritairement les profils suspects, ceux dont l'âge déclaré ne correspond pas aux indices visuels et comportementaux détectés par l'IA. Concrètement, si un utilisateur indique avoir 18 ans mais que ses photos montrent un visage clairement adolescent, l'algorithme peut déclencher une vérification.
Le système croise plusieurs sources d'information : les photos publiées, les vidéos, les commentaires laissés sur d'autres comptes, les groupes rejoints, les centres d'intérêt affichés. Un adolescent qui suit des comptes de jeux vidéo pour enfants, qui poste des photos avec son cartable et qui commente « contrôle de maths demain » cumule les indices.
La procédure en cas de doute
Si l'IA estime que l'utilisateur a moins de 13 ans, son compte est suspendu. Une notification lui indique qu'il doit prouver son âge pour récupérer l'accès à son profil. Les options de vérification incluent la présentation d'une pièce d'identité ou l'utilisation d'un service tiers de vérification d'âge.
Pour les 13-17 ans, le système est moins radical. Meta peut restreindre certaines fonctionnalités sans supprimer le compte. Les paramètres de confidentialité sont renforcés, la messagerie est limitée, et certaines options de ciblage publicitaire sont désactivées.
Quels sont les risques pour la vie privée ?

L'analyse de la structure osseuse soulève des inquiétudes légitimes chez les défenseurs des droits numériques. Plusieurs questions restent sans réponse satisfaisante.
La conservation des données biométriques
Meta assure que les données d'analyse osseuse ne sont pas conservées. L'entreprise affirme que l'IA examine les images en temps réel, sans stocker les caractéristiques morphologiques des utilisateurs. Mais comment vérifier cette affirmation ? Les scandales passés de Meta, notamment l'affaire Cambridge Analytica ou le vol de 30 000 photos privées par un ingénieur de l'entreprise, n'incitent pas à la confiance aveugle.
La question est d'autant plus sensible que la structure osseuse est une donnée biométrique. Contrairement à un mot de passe, on ne peut pas la changer. Une fois que ces données sont collectées, leur fuite ou leur utilisation détournée aurait des conséquences irréversibles.
Le risque de détournement publicitaire
Si Meta affirme que l'analyse osseuse sert uniquement à vérifier l'âge, rien n'empêche l'entreprise d'utiliser ces informations à d'autres fins. La connaissance de l'âge réel des utilisateurs est extrêmement précieuse pour le ciblage publicitaire. Les annonceurs paient cher pour toucher des tranches d'âge spécifiques, et Meta pourrait théoriquement affiner son ciblage grâce à ces données.
Des associations comme La Quadrature du Net s'inquiètent également d'un possible glissement vers une surveillance plus large. Si l'IA peut analyser la structure osseuse, pourquoi ne pourrait-elle pas demain analyser les expressions faciales, les émotions, ou d'autres caractéristiques ?
Les possibilités de refus
Pour l'instant, les utilisateurs ne peuvent pas refuser cette analyse. Le système fonctionne en arrière-plan, sans consentement explicite. Meta estime que la protection des mineurs justifie cette absence de choix, mais cette position est contestée sur le plan juridique.
En Europe, le RGPD exige un consentement éclairé pour le traitement des données biométriques. Or, Meta ne demande pas l'avis des utilisateurs avant d'analyser leurs photos. L'entreprise pourrait être contrainte de modifier son dispositif pour se conformer à la réglementation européenne. La CNIL aura probablement un rôle à jouer dans l'évaluation de cette conformité.
L'efficacité réelle de la mesure est-elle garantie ?
Au-delà des questions de vie privée, l'efficacité de cette technologie reste à démontrer. Les adolescents sont souvent plus malins que les algorithmes.
Les limites techniques de l'analyse osseuse
L'estimation de l'âge à partir de la structure osseuse est une science approximative. La puberté survient à des âges très variables selon les individus. Un garçon de 14 ans peut avoir l'air d'en avoir 11 ou 17 selon son développement. Les filles connaissent également des variations importantes.
L'IA peut-elle vraiment faire la différence entre un enfant de 12 ans et demi et un autre de 13 ans ? La frontière est floue, même pour un œil humain exercé. Meta risque de multiplier les faux positifs, avec des comptes d'adolescents légitimement âgés de plus de 13 ans qui seraient suspendus par erreur.
Les contournements possibles
Les adolescents trouveront sans doute des parades. Poster des photos floutées, utiliser des filtres qui modifient les proportions du visage, ou simplement ne pas publier de photos de soi. Certains pourraient aussi créer des comptes avec des photos d'adultes ou d'objets.
Le système analyse également les indices textuels, mais un adolescent averti peut facilement éviter de mentionner son âge ou son année scolaire dans ses publications. La solution de Meta risque donc de n'être efficace que contre les utilisateurs les moins méfiants.
Ce que cette mesure change pour la sécurité des enfants en ligne
Malgré ses défauts, cette initiative représente une avancée dans la protection des mineurs sur les réseaux sociaux. Les chiffres parlent d'eux-mêmes.
Le constat alarmant des risques actuels
Une étude menée par l'université de Stanford a montré que 19 % des 13-15 ans reçoivent des images sexuelles non sollicitées sur Instagram. Les prédateurs utilisent la facilité d'accès aux plateformes pour cibler des enfants qui n'auraient jamais dû s'y trouver. La pédophilie sur les réseaux sociaux reste un fléau massif, avec des milliers de signalements chaque année en France.
Le problème vient en partie du fait que les enfants mentent sur leur âge pour créer un compte. Sans vérification fiable, les plateformes ne peuvent pas appliquer leurs propres règles. L'analyse osseuse, malgré ses imperfections, rend le mensonge plus difficile.
Une protection renforcée pour les plus jeunes
Si le système fonctionne correctement, les moins de 13 ans seront exclus des plateformes, ou du moins beaucoup plus difficiles à y trouver. Les paramètres de protection pour les 13-17 ans seront également appliqués plus systématiquement, puisque Meta pourra identifier avec plus de certitude les comptes appartenant à des adolescents.
Les parents peuvent voir d'un bon œil cette mesure, à condition que les garanties de confidentialité soient suffisantes. La transparence de Meta sur le fonctionnement exact de l'algorithme et sur la gestion des données collectées sera déterminante.
Conclusion
L'analyse de la structure osseuse par intelligence artificielle sur Facebook et Instagram représente un tournant dans la modération des plateformes. Pour la première fois, un réseau social utilise des données biométriques pour vérifier l'âge de ses utilisateurs, sous la pression des régulateurs européens et des tribunaux américains.
Cette technologie soulève un paradoxe fondamental. D'un côté, elle répond à un besoin réel de protection des mineurs face aux dangers qui prolifèrent en ligne. De l'autre, elle instaure une surveillance algorithmique des adolescents sans consentement explicite, avec des risques potentiels pour la vie privée.
La question centrale reste celle de la confiance. Meta, qui a accumulé les scandales et les condamnations, demande aux utilisateurs de croire que l'analyse osseuse ne sera pas détournée. Les associations de défense des droits numériques, la CNIL et les régulateurs européens devront suivre de près l'application de cette mesure pour s'assurer que la protection des enfants ne se transforme pas en surveillance de masse.
Les corrections apportées incluent :
- Ajout d'accents manquants (ex. : « déployé » → « déployé », « régulateurs » → « régulateurs », « généré » → « généré »).
- Correction de la ponctuation (espaces insécables avant les deux-points et points-virgules).
- Harmonisation des guillemets français « ».
- Aucune modification du fond ou de la structure du texte.