Tu poses une question à ChatGPT, Snap My AI ou Gemini. En quelques secondes, une réponse s'affiche, claire, structurée, convaincante. Mais qui a décidé, en amont, que cette réponse était acceptable ? Campbell Brown, ancienne responsable de l'actualité chez Meta et désormais cofondatrice de Forum AI, vient de remettre cette question sur le tapis. Son constat est simple : l'IA n'est pas neutre. Derrière chaque réponse, des humains, des algorithmes et des règles de modération choisissent ce que tu peux lire. Et les jeunes Français, qui utilisent massivement ces outils, l'ignorent souvent.

Usage de l'IA chez les 16-25 ans : des chiffres qui interrogent
Les chiffres parlent d'eux-mêmes. Selon une étude Ifop réalisée en octobre 2025, 89 % des 16-25 ans ont déjà utilisé un outil d'IA générative. C'est plus du double de la moyenne du grand public, qui plafonne à 43 %. Parmi ces jeunes utilisateurs, 82 % s'en servent au moins une fois par semaine, et 28 % quotidiennement. ChatGPT domine largement avec 84,6 % d'utilisation chez les 18-25 ans, suivi de Snapchat My AI (43,4 %), Meta AI (35,6 %) et Gemini (32,8 %), d'après une enquête SavoirIA.
Un outil pour tout, même l'intime
Les usages sont variés. La recherche et l'apprentissage arrivent en tête (71 %), suivis de la rédaction (60 %), de l'aide aux devoirs (60 %) et de la curiosité (60 %). Mais le chiffre qui interpelle, c'est celui des confidences : 5 jeunes sur 10 utilisent l'IA pour se confier, selon l'étude Ifop. Une enquête Ipsos BVA / VYV / CNIL de mai 2026, menée auprès de 3800 jeunes de 11 à 25 ans dans quatre pays européens, confirme cette tendance. En France, 48 % des utilisateurs d'IA s'en servent pour des problèmes intimes et personnels. 33 % cherchent des conseils face au stress, 32 % quand ils se sentent tristes ou en colère. 46 % voient l'IA comme un « psy ».
Une confiance aveugle
Le problème ? 69 % des jeunes estiment que l'IA peut donner des conseils fiables. Mais seuls 32 % savent ce que deviennent leurs données personnelles. Et 34 % se sont déjà sentis mal à l'aise après une conversation avec un chatbot. Le paradoxe est frappant : on confie ses problèmes à une machine dont on ignore les mécanismes de filtrage et de modération.
Modération des chatbots : qui décide des réponses acceptables

Campbell Brown, ex-responsable de l'actualité chez Meta, a cofondé Forum AI, une startup qui lève 3 millions de dollars en seed pour évaluer les biais des intelligences artificielles. Son approche est radicale : elle assemble un panel d'experts – Fareed Zakaria, Kevin McCarthy, Larry Summers – pour juger les réponses des IA sur des sujets sensibles comme la politique, les affaires étrangères ou la santé mentale. Sa citation est claire : « L'IA façonne déjà la manière dont les gens comprennent le monde. Nous avons construit Forum AI pour garantir que ces systèmes reflètent le jugement d'experts humains, pas seulement une exactitude statistique. »
Ingénieurs, modérateurs, politiques : une chaîne de décisions opaque
Qui décide vraiment ce que l'IA te répond ? La chaîne est complexe. D'abord, les ingénieurs qui entraînent les modèles choisissent les données d'apprentissage. Si un modèle est nourri majoritairement de contenus anglophones, ses réponses en français seront biaisées. Ensuite, les modérateurs humains – souvent sous-traités dans des pays à bas coût – valident ou rejettent des milliers de réponses par jour. Leurs propres biais culturels, politiques ou religieux influencent ce qui passe ou non.
Enfin, les politiques entrent en jeu. Le règlement européen sur l'IA (IA Act), en cours de finalisation, impose des obligations de transparence et de gestion des risques. La loi SREN française et le Digital Services Act (DSA) ajoutent des couches de contrôle. Mais concrètement, quand tu poses une question à ChatGPT, tu ne sais jamais si la réponse a été « validée » par un humain ou si elle est purement algorithmique.
Le cas Meta : une restructuration révélatrice
Meta, la maison mère de Facebook, Instagram et WhatsApp, a dévoilé le 8 avril 2026 Muse Spark, son nouveau modèle d'IA. Ce lancement intervient après une restructuration profonde des équipes IA, marquée par le départ de Yann LeCun, ancien responsable de la recherche, et l'arrivée d'Alexandr Wang, débauché de Scale AI pour 14 milliards de dollars. Mark Zuckerberg a recruté des cadres d'OpenAI, Anthropic et Google pour former le Meta Superintelligence Lab. Cette réorganisation montre à quel point les décisions sur ce que l'IA peut ou ne peut pas dire sont stratégiques.
D'ailleurs, Meta a déjà été épinglée pour sa modération. Un article récent montre comment Mark Zuckerberg cloné par IA : vers un management synthétique chez Meta ? interroge les limites de l'IA dans la gestion des contenus. Et le lancement de Muse Spark de Meta : arrivée de l'IA multimodale sur WhatsApp et Instagram pose la question de la modération sur les messageries privées.
Censure et désinformation : quand les IA dérapent
Les incidents récents montrent que les réponses des IA ne sont pas gravées dans le marbre. Elles peuvent être modifiées, suspendues, voire contredites par leurs propres créateurs.
Grok suspendu pour avoir parlé de génocide
En août 2025, Grok, l'IA d'Elon Musk intégrée à X (anciennement Twitter), a été temporairement suspendue. Pourquoi ? Elle avait affirmé qu'Israël et les États-Unis commettaient un génocide dans la bande de Gaza. Elon Musk a qualifié cette réponse d'« erreur idiote ». L'incident montre que même une IA conçue pour être « libre » peut être bridée quand ses réponses déplaisent à son propriétaire. La question n'est pas de savoir si Grok avait raison ou tort, mais qui décide qu'une réponse est une « erreur » et doit être supprimée.
Le cas Air Canada : un chatbot qui engage la responsabilité de l'entreprise
Au Canada, un jugement de la Cour des petites créances de Colombie-Britannique, rendu le 14 février 2024, a reconnu la responsabilité d'Air Canada après que son chatbot a donné une information erronée à un client. Ce dernier voulait bénéficier d'un tarif réduit pour un voyage funéraire. Le chatbot lui a dit qu'il pouvait acheter son billet puis demander un remboursement. Air Canada a refusé, mais le tribunal a condamné la compagnie à rembourser la différence. L'argument d'Air Canada – que le chatbot était une « personne morale autonome » – n'a pas tenu. Le juge a estimé que l'entreprise reste responsable des conseils donnés par son IA.
Les refus de réponse sur des sujets sensibles
En France, plusieurs utilisateurs ont rapporté que ChatGPT refusait de répondre à des questions sur le conflit israélo-palestinien, ou donnait des réponses évasives. OpenAI a modifié ses consignes de modération après des plaintes. De même, des questions sur le climat, le genre ou la politique française peuvent déclencher des réponses prudentes, voire un refus pur et simple. Le problème, c'est que l'utilisateur ne sait jamais si le refus vient d'une règle de sécurité légitime ou d'un biais du modèle.
Transparence des réponses IA : comment savoir si un humain a validé
C'est la grande question. Aujourd'hui, aucun des grands modèles grand public – ChatGPT, Gemini, Snap My AI, Meta AI – n'affiche clairement si une réponse a été relue par un modérateur humain. Les entreprises invoquent le secret industriel et la difficulté technique. Pourtant, des initiatives comme Forum AI tentent d'apporter de la transparence.
Le modèle Forum AI : un panel d'experts pour évaluer les réponses
Forum AI ne se contente pas de détecter les biais. Elle propose un système d'évaluation par un panel d'experts reconnus, issus de différents horizons politiques et culturels. L'idée est de confronter les réponses des IA à un jugement humain pluraliste. Si un modèle donne une réponse controversée sur la santé mentale, par exemple, des psychiatres, des patients et des éthiciens peuvent intervenir. Ce modèle est encore expérimental, mais il pose les bases d'une certification des réponses IA.
Les obligations légales en France et en Europe
Le DSA et la loi SREN imposent déjà aux plateformes de signaler les contenus générés par IA et de mettre en place des mécanismes de signalement. Mais ces obligations concernent surtout les contenus publiés sur les réseaux sociaux, pas les réponses des chatbots. L'IA Act européen, qui entrera en vigueur progressivement à partir de 2026, classera les systèmes d'IA par niveau de risque. Les chatbots grand public seront considérés comme à risque limité, avec des obligations de transparence : l'utilisateur devra savoir qu'il parle à une machine, mais pas forcément qui a validé la réponse.
Ce que tu peux faire, toi, utilisateur
En attendant que la loi évolue, quelques réflexes peuvent t'aider. Croise les informations données par l'IA avec des sources humaines. Utilise des outils comme SignalConso pour signaler un contenu problématique. Et surtout, pose-toi cette question avant chaque utilisation : « Est-ce que je ferais confiance à cette réponse si elle venait d'un inconnu dans la rue ? » Si la réponse est non, méfie-toi.
Biais des IA en français : ce que révèlent les études
Les études récentes montrent que les biais des IA ne sont pas les mêmes selon les langues. En français, les modèles ont tendance à reproduire des stéréotypes culturels spécifiques.
Biais de genre et de classe
Une analyse des réponses de ChatGPT en français montre que l'IA associe plus souvent les métiers techniques aux hommes et les métiers du care aux femmes. Les réponses sur les questions sociales reflètent souvent une vision parisienne et diplômée, ignorant les réalités des zones rurales ou des quartiers populaires. Ces biais viennent des données d'entraînement, majoritairement issues de la presse nationale et des contenus académiques.
Biais politiques
Sur des sujets comme l'immigration, le climat ou les réformes des retraites, les IA grand public adoptent souvent une position centriste, voire prudente, pour éviter les polémiques. Cette « neutralité » est en réalité un choix politique : celui de ne pas froisser les sensibilités majoritaires. Mais elle invisibilise des positions minoritaires ou radicales, et peut donner l'impression que seules les opinions modérées sont valables.
Biais de santé
L'étude Ipsos BVA / VYV / CNIL de mai 2026 révèle que 46 % des jeunes voient l'IA comme un psy. Mais les réponses des IA en matière de santé mentale sont souvent génériques et peuvent être dangereuses. Par exemple, ChatGPT peut recommander des techniques de respiration pour gérer l'anxiété, mais ne détecte pas les signes de dépression sévère. Pire, il peut donner des conseils qui minimisent des symptômes graves. La frontière entre conseil bienveillant et mise en danger est floue.
Régulation de l'IA en 2026 : ce qui change vraiment
L'année 2026 marque un tournant. L'IA Act européen entre en vigueur, et la France renforce son arsenal législatif avec la loi SREN. Mais ces textes suffiront-ils à protéger les utilisateurs ?
L'IA Act : transparence et gestion des risques
Le règlement européen classe les systèmes d'IA en quatre catégories : risque minimal, limité, élevé et inacceptable. Les chatbots comme ChatGPT ou Gemini sont considérés comme à risque limité. Ils devront informer l'utilisateur qu'il interagit avec une machine, et permettre de signaler les contenus problématiques. Mais ils ne seront pas soumis à une validation humaine systématique. Les systèmes à risque élevé (santé, éducation, justice) devront, eux, être audités et certifiés.
La loi SREN : un cadre français plus strict
La loi visant à sécuriser et réguler l'espace numérique (SREN) impose aux plateformes de modérer les contenus générés par IA et de coopérer avec les autorités. Elle renforce aussi les pouvoirs de l'Arcom et de la CNIL. Mais son application aux chatbots est encore floue. Les associations de défense des droits des femmes ont déjà dénoncé les lacunes de Meta dans la modération, comme le montre l'article sur les Droits des femmes en France : la censure de Meta paralyse les associations.
Le verdict contre Meta : un précédent
Le Verdict contre Meta : ce que ça change sur votre Instagram a montré que les géants de la tech peuvent être condamnés pour leur modération défaillante. Ce jugement pourrait faire jurisprudence pour les IA conversationnelles. Si un chatbot donne un conseil dangereux, l'entreprise qui le développe pourrait être tenue responsable, comme Air Canada l'a été.
Conclusion
Tu crois que l'IA est neutre ? Détrompe-toi. Derrière chaque réponse, des humains, des algorithmes et des règles de modération décident ce qui est acceptable ou vrai. Campbell Brown, avec Forum AI, tente d'apporter de la transparence, mais le chemin est long. Les jeunes Français utilisent massivement l'IA pour s'informer, apprendre, se confier, sans savoir que leurs données et leurs questions sont filtrées par des chaînes de décisions opaques. Les incidents récents – suspension de Grok, condamnation d'Air Canada, biais des modèles – montrent que le problème est bien réel. En 2026, l'IA Act européen et la loi SREN posent les premières pierres d'une régulation, mais la responsabilité incombe aussi aux utilisateurs. La prochaine fois que tu poses une question à ton assistant IA, souviens-toi : la réponse que tu reçois n'est pas le fruit du hasard. Elle est le résultat de choix humains, parfois contestables, toujours influencés.