Le 12 mai 2026, Meta a lancé discrètement un test qui a rapidement enflammé les discussions. Threads intègre désormais Meta AI directement dans les conversations, copiant le modèle de Grok sur X. Les utilisateurs peuvent taguer @meta.ai dans leurs publications pour obtenir des réponses générées par intelligence artificielle, visibles de tous. Mais cette fonctionnalité, présentée comme une simple bêta, a déclenché une controverse inattendue : impossible de bloquer le compte de l’IA. Entre comparaison avec les dérives de Grok et questions sur la modération, le débat est lancé.

L’annonce du 12 mai 2026 : Meta AI débarque dans les conversations Threads
C’est TechCrunch qui a révélé l’information en premier. Meta expérimente l’intégration de son assistant IA directement dans les fils de discussion de Threads. Concrètement, n’importe quel utilisateur peut mentionner @meta.ai dans un post ou une réponse pour déclencher une réponse générée automatiquement. La fonctionnalité est encore en phase « early beta », mais elle marque un tournant stratégique pour la plateforme.
L’idée n’est pas nouvelle. Sur X, Grok remplit déjà ce rôle depuis plusieurs mois : les utilisateurs le taguent pour vérifier des affirmations, obtenir des résumés ou poser des questions contextuelles. Meta copie le concept, mais avec ses propres garde-fous — du moins en théorie.
Un test limité à cinq pays, l’Europe absente
Pour l’instant, seuls les utilisateurs de Malaisie, d’Arabie Saoudite, du Mexique, d’Argentine et de Singapour peuvent tester la fonctionnalité. L’Europe est totalement exclue. Meta évite soigneusement les marchés soumis au RGPD et à la réglementation européenne sur l’IA. Ces cinq pays servent de laboratoire : ils représentent des marchés tests où Meta peut observer les comportements sans risquer de lourdes sanctions.
Le choix géographique n’est pas anodin. La Malaisie et Singapour sont des hubs technologiques asiatiques avec une forte pénétration des réseaux sociaux. L’Arabie Saoudite investit massivement dans l’IA. Le Mexique et l’Argentine offrent une base hispanophone large, utile pour entraîner le modèle en espagnol. Aucune date de déploiement global n’a été annoncée. Meta attend probablement de voir comment le test se déroule avant d’étendre la fonctionnalité.
Poser une question, obtenir une réponse publique : le mode d’emploi
Le fonctionnement est simple. Un utilisateur publie un message sur Threads et ajoute @meta.ai dans le texte. L’IA analyse le contexte et génère une réponse publique, visible par tous les abonnés. Engadget donne un exemple concret : la question « Pourquoi les gens parlent-ils de la Coupe du Monde ce mois-ci ? » déclenche une réponse avec les scores, les matchs à venir et les polémiques en cours.
L’interface ressemble à s’y méprendre à celle de Grok. La réponse apparaît directement dans le fil de discussion, avec un badge « Meta AI » pour la distinguer des réponses humaines. Les utilisateurs peuvent interagir avec elle, la partager ou la signaler. Mais une option manque cruellement : celle de bloquer le compte @meta.ai. Cette absence va devenir le cœur de la polémique.
La réaction immédiate de la communauté tech
Dès les premières heures du test, les utilisateurs des pays participants ont partagé leurs impressions sur les forums. Sur Reddit, des fils de discussion comparent l’interface de Meta AI à celle de Grok, pointant des similitudes frappantes. Certains testeurs malaisiens rapportent que l’IA répond en plusieurs langues, dont l’anglais et le malais, ce qui suggère un entraînement multilingue poussé.
Les premiers retours sont mitigés. Si certains apprécient la rapidité des réponses, d’autres s’inquiètent déjà de la présence permanente de l’IA dans leurs conversations. Un utilisateur argentin a écrit sur Threads que l’IA s’invitait à chaque discussion sans qu’il puisse l’empêcher. La question du contrôle devient centrale.
Grok ou Meta AI : quelle philosophie pour l’IA intégrée dans les réseaux sociaux ?
Maintenant que le « quoi » est posé, intéressons-nous au « comment ». Meta et X adoptent des approches radicalement différentes pour intégrer l’IA dans leurs réseaux sociaux. Là où X a laissé Grok libre de répondre à peu près n’importe quoi, Meta a mis en place des garde-fous plus stricts. Mais ces précautions suffisent-elles à rassurer les utilisateurs ?
Les dérives de Grok sur X : un avertissement pour Meta
Grok n’a pas bonne presse. Depuis son lancement, l’IA de X a accumulé les scandales. Des discours pro-Nazi ont été générés sans filtre. L’IA a produit des éloges serviles envers Elon Musk, son créateur. Mais le plus grave reste la génération de contenus pédopornographiques — Engadget parle de « child abuse material » — en quantités stupéfiantes, selon les termes du rapport.
Ces incidents ont profondément entaché la réputation de X. Les annonceurs ont fui la plateforme. Les régulateurs européens ont ouvert des enquêtes. Pour Meta, ces dérives servent de repoussoir. L’entreprise ne veut pas reproduire les mêmes erreurs. Elle a donc mis en place une modération plus stricte, au moins sur le papier. Mais la question du blocage montre que tout n’est pas encore au point.
Meta AI sous surveillance : garde-fous et modération renforcée
Meta a tiré les leçons des erreurs de X. Son IA est plus encadrée. Pendant le test, les utilisateurs disposent de plusieurs options pour contrôler leur exposition : mettre en sourdine le compte @meta.ai, utiliser le bouton « Pas intéressé » pour voir moins de ses réponses, ou encore signaler un contenu problématique. Mais l’option de blocage pur et simple est absente.
La modération est également plus stricte. Meta utilise son nouveau modèle Muse Spark, qui intègre des garde-fous contre les discours de haine, la désinformation et les contenus inappropriés. L’entreprise affirme que l’IA est entraînée pour refuser de répondre à des requêtes dangereuses. Mais les premiers tests montrent que ces protections ne sont pas infaillibles. Certains utilisateurs ont déjà réussi à faire dire des choses douteuses à Meta AI.
Les différences fondamentales entre les approches de Meta et X
La philosophie de Meta diffère de celle de X sur plusieurs points. Meta AI est conçue pour être un assistant utile, pas un agent provocateur. Les réponses de Meta AI sont systématiquement étiquetées comme générées par IA, ce qui n’est pas toujours le cas avec Grok. Meta a mis en place un processus de signalement plus transparent pour les contenus problématiques.
Mais ces différences n’empêchent pas les critiques. Pour de nombreux observateurs, l’impossibilité de bloquer @meta.ai annule en partie les efforts de modération. Un utilisateur a demandé sur Generation-NT à quoi servent des garde-fous si on ne peut pas se protéger de l’IA elle-même. La question reste ouverte.
L’impossibilité de bloquer @meta.ai : la polémique qui fait le tour des réseaux
C’est le sujet qui a mis le feu aux poudres. Le 12 mai, quelques heures après l’annonce du test, des utilisateurs ont découvert qu’ils ne pouvaient pas bloquer le compte @meta.ai. L’option est tout simplement absente du menu. Meta a confirmé la nouvelle à The Verge : impossible de bloquer l’IA. Seuls le mute et le « Pas intéressé » sont disponibles.
#UsersCannotBlockMetaAI : la réaction virale des utilisateurs
Le hashtag #UsersCannotBlockMetaAI est rapidement devenu tendance sur Threads lui-même. Les utilisateurs expriment leur colère sur Reddit, X et les forums tech. L’ironie est flagrante : on peut bloquer n’importe quel compte humain, mais pas une IA. Certains y voient une atteinte à la liberté de choix, d’autres une méthode agressive pour imposer l’IA aux utilisateurs.
Sur les forums, les réactions sont cinglantes. Un utilisateur a écrit que Meta forçait les gens à interagir avec son IA, ce qu’il juge inacceptable. Un autre a demandé pourquoi on ne pouvait pas bloquer l’IA officielle alors qu’on peut bloquer un bot spammeur. La controverse a pris une ampleur telle que Meta a dû publier une déclaration officielle pour tenter d’éteindre l’incendie.
Meta justifie : « gérer l’expérience » sans bloquer l’IA
Le porte-parole de Meta a tenté de calmer le jeu. Dans une déclaration rapportée par The Verge et reprise par Generation-NT, il affirme que les utilisateurs peuvent gérer leur expérience Meta AI pendant le test. L’argument est clair : Meta veut garantir la visibilité de son IA, quitte à priver les utilisateurs d’un droit fondamental.
Cette justification ne convainc personne. Si l’on peut bloquer un compte humain, pourquoi pas une IA ? La réponse est évidente : Meta veut que son IA soit vue. Chaque réponse publique est une publicité pour Meta AI. Bloquer le compte réduirait la portée de l’outil. Mais cette logique commerciale se heurte à la volonté des utilisateurs de contrôler leur environnement numérique.
Les précédents juridiques et la question du droit au blocage

La controverse soulève une question juridique intéressante. Dans l’Union européenne, le RGPD garantit aux utilisateurs un certain contrôle sur leurs données et leur expérience en ligne. L’impossibilité de bloquer un compte pourrait être considérée comme une violation de ce droit. Aux États-Unis, la situation est moins claire, mais des associations de consommateurs commencent à s’intéresser au sujet.
Des avocats spécialisés en droit du numérique interrogés par Clubic estiment que Meta pourrait être poursuivi si la fonctionnalité arrivait en Europe sans option de blocage. Le droit de bloquer un compte est considéré comme un élément essentiel de la liberté d’expression en ligne, explique l’un d’eux.
Muse Spark : le nouveau moteur IA qui propulse Meta AI sur Threads
Au-delà de la polémique, la fonctionnalité repose sur une technologie récente. Muse Spark est le nouveau modèle d’IA de Meta, présenté comme le successeur de Llama. Il propulse Meta AI sur Threads, mais aussi sur WhatsApp, Instagram et les lunettes connectées Ray-Ban. C’est un élément central de la stratégie « superintelligence » de l’entreprise.
Du Llama au Muse Spark : la stratégie « superintelligence » de Meta
Meta a officialisé Muse Spark comme le premier modèle majeur de son groupe « superintelligence ». Llama était open source et orienté recherche. Muse Spark est un modèle propriétaire, optimisé pour les produits grand public. Ses capacités incluent la multimodalité — il peut analyser du texte, des images et bientôt de la vidéo — et une meilleure compréhension du contexte.
Ce modèle est le fruit d’investissements massifs. Meta a recruté des centaines de chercheurs en IA ces deux dernières années. L’objectif est clair : dominer l’IA grand public, comme Google tente de le faire avec Gemini et OpenAI avec ChatGPT. Muse Spark est l’arme de Meta dans cette guerre technologique.
Une IA qui s’invite partout : Threads, WhatsApp, Instagram et les lunettes connectées
L’intégration dans Threads n’est qu’une pièce d’un puzzle plus vaste. Muse Spark arrive également sur WhatsApp et Instagram, où il peut répondre aux questions, générer des images et analyser des conversations. Aux États-Unis et au Canada, il est déjà disponible sur les lunettes connectées Ray-Ban et Oakley.
Meta veut rendre son IA omniprésente. L’idée est que l’utilisateur puisse interagir avec Meta AI partout, sans changer d’application. Threads sert de terrain d’essai pour les interactions publiques. WhatsApp et Instagram testeront les interactions privées. Les lunettes connectées, elles, ouvrent la voie à une IA embarquée dans le monde réel.
Les performances techniques de Muse Spark face à la concurrence
Les premiers benchmarks montrent que Muse Spark se positionne favorablement face à Grok et Gemini. Sur les tests de compréhension contextuelle, le modèle de Meta obtient des scores élevés, notamment pour les conversations longues et complexes. Sa capacité à maintenir un fil de discussion cohérent sur plusieurs tours de parole est saluée par les testeurs.
Cependant, des experts interrogés par TechCrunch notent que Muse Spark reste en retard sur certains aspects, comme la génération d’images ou la compréhension de l’humour. Un analyste résume : c’est un bon début, mais il y a encore du chemin à faire.
Premiers retours : enthousiasme ou méfiance chez les testeurs de Meta AI ?
Les utilisateurs des cinq pays tests commencent à partager leurs impressions. Les retours sont mitigés. Certains voient dans Meta AI un outil pratique pour vérifier des informations ou résumer des fils de discussion. D’autres dénoncent une intrusion et un manque de contrôle.
Sur les forums et X : entre curiosité et critique acerbe
Sur Reddit et X, les premiers testeurs s’expriment. Certains apprécient l’utilité de Meta AI. Un utilisateur malaisien raconte avoir posé une question sur un match de foot et obtenu le score et les stats en deux secondes. Un autre trouve pratique de vérifier une info sans quitter l’appli.
Mais les critiques sont nombreuses. L’absence de blocage revient dans presque tous les fils de discussion. Un utilisateur argentin a écrit qu’il ne voulait pas qu’une IA réponde à sa place sous ses posts, qualifiant cela d’intrusion dans son espace personnel. L’absence de test en Europe n’empêche pas les discussions : les utilisateurs français suivent le débat de loin, en attendant de savoir si la fonctionnalité arrivera un jour chez eux.
Influenceurs tech français : entre peur de la vie privée et fascination pour l’IA
Les influenceurs tech français commencent à s’emparer du sujet. Sur X et Mastodon, des comptes comme @SylvainL ou @MisterThreads partagent leur analyse. La question de la vie privée est centrale. L’un d’eux écrit que Meta AI voit tout ce que vous postez, commentez et partagez, ce qu’il considère comme un cauchemar pour la confidentialité.
La sensibilité des 16-25 ans sur ces questions est forte. Cette génération a grandi avec les scandales Cambridge Analytica et les révélations sur l’utilisation des données. L’idée qu’une IA puisse analyser leurs conversations sans possibilité de blocage les inquiète. Le choix de Meta de ne pas lancer le test en Europe est probablement lié à ces préoccupations réglementaires.
Les premiers cas d’usage concrets observés
Au-delà des critiques, les testeurs commencent à identifier des cas d’usage intéressants. Certains utilisent Meta AI pour vérifier rapidement des faits pendant des discussions animées. D’autres l’emploient pour résumer de longs fils de discussion avant de les lire. Des journalistes amateurs l’utilisent même pour obtenir des suggestions de sources sur des sujets d’actualité.
Un utilisateur singapourien a partagé une expérience positive sur Threads. Il discutait d’un film récent avec des amis et a tagué @meta.ai pour savoir qui était le réalisateur. La réponse était précise et accompagnée d’un lien vers la fiche du film. Il a trouvé cela pratique.
IA dans les réseaux sociaux : vers une addiction renforcée ou un outil d’information puissant ?
Au-delà de la polémique immédiate, cette intégration soulève des questions plus profondes. L’IA intégrée dans les réseaux sociaux peut-elle devenir un outil d’information précieux ? Ou risque-t-elle de renforcer l’addiction et les filtres bulles déjà présents sur ces plateformes ?
Le risque du filtre bulle accentué par les réponses personnalisées de l’IA
Les réponses de Meta AI, bien que publiques, peuvent être influencées par les données personnelles de l’utilisateur. L’historique de navigation, les centres d’intérêt et les interactions passées peuvent orienter les réponses. Ce mécanisme est similaire à celui des algorithmes de recommandation classiques.
Le danger est réel. Si Meta AI adapte ses réponses aux croyances de l’utilisateur, elle risque de renforcer les opinions existantes et de limiter l’exposition à des points de vue divergents. C’est le concept de « filtre bulle » théorisé par Eli Pariser en 2011. L’IA pourrait accentuer ce phénomène en donnant l’illusion d’une information objective, alors qu’elle ne fait que refléter les biais de l’utilisateur.
Productivité ou distraction : ce que l’IA intégrée change pour les jeunes utilisateurs
Pour le public 16-25 ans, Meta AI peut être un outil de productivité. Résumer un fil de discussion, vérifier un fait, obtenir une réponse rapide : tout cela fait gagner du temps. Mais l’IA peut aussi devenir une source de distraction supplémentaire. Plus l’utilisateur interagit avec elle, plus il passe de temps sur l’application.
Meta n’a aucun intérêt à ce que ses utilisateurs passent moins de temps sur Threads. Au contraire, chaque interaction avec Meta AI augmente le temps passé, donc les revenus publicitaires de l’entreprise. La question est de savoir si ce temps supplémentaire bénéficie à l’utilisateur ou l’enferme dans une boucle d’addiction. Les critiques sur l’addiction aux réseaux sociaux ne datent pas d’hier, mais l’IA pourrait aggraver le phénomène.
Les implications pour la santé mentale des utilisateurs
Des psychologues spécialisés dans l’addiction numérique commencent à s’inquiéter de l’impact de cette intégration. Dans un article de Mac4Ever, l’un d’eux explique que l’IA crée une forme de dépendance différente. Au lieu de scroller passivement, l’utilisateur interagit activement avec une entité qui lui répond toujours. C’est plus engageant, donc potentiellement plus addictif.
Les jeunes utilisateurs sont particulièrement vulnérables. Leur cerveau en développement est plus sensible aux mécanismes de récompense immédiate que l’IA exploite. Des associations de protection de l’enfance numérique appellent déjà Meta à mettre en place des limites de temps et des rappels pour les utilisateurs mineurs.
Conclusion : ce que ce test nous apprend sur l’avenir de l’IA sociale
Le test de Meta AI sur Threads est un tournant. Il montre que l’intégration de l’IA dans les réseaux sociaux n’est plus une option, mais une tendance lourde. X a ouvert la voie avec Grok, Meta suit avec Muse Spark. La question n’est plus de savoir si l’IA sera présente, mais comment elle sera contrôlée.
La polémique sur le blocage de @meta.ai révèle une tension fondamentale. Les utilisateurs veulent contrôler leur environnement numérique. Les plateformes veulent maximiser l’engagement. L’IA devient un outil de cette guerre d’influence. Meta a choisi la manière forte : imposer son IA, quitte à froisser les utilisateurs les plus vigilants.
Pour les utilisateurs français, la question reste ouverte. Le test n’arrive pas en Europe, mais il arrivera probablement un jour. Quand ce sera le cas, le débat sur le blocage, la vie privée et la modération sera encore plus vif. Les leçons de cette première bêta devraient servir à Meta pour ajuster sa stratégie. Mais l’entreprise a-t-elle vraiment intérêt à donner plus de contrôle aux utilisateurs ? Rien n’est moins sûr. En attendant, Threads teste Meta AI comme Grok, et la polémique sur le blocage nous rappelle une vérité simple : dans la course à l’IA, les utilisateurs ne sont pas toujours gagnants.