Demander à ChatGPT en septembre 2025 : « Est-ce que François Bayrou a été Premier Ministre de la France ? » pourrait sembler anodin, mais cette simple interrogation révèle une faille vertigineuse dans notre rapport à la vérité numérique. Alors que l'intelligence artificielle s'invite massivement dans les rédactions, une nouvelle menace plane sur le journalisme d'investigation, portée par des acteurs qui n'ont pas toujours l'intérêt général à cœur. Une startup nommée Objection, financée par le milliardaire Peter Thiel, vient de lever des fonds pour lancer un outil algorithmique capable de rendre un « verdict » sur la véracité des articles de presse en moins de trois jours. L'ambition est affichée crûment : remplacer la lenteur de la justice humaine par la rapidité glaciale d'une machine, risquant de mettre à genoux une profession déjà fragilisée et de faire taire ceux qui n'ont que leur parole pour défendre la démocratie.
Qu'est-ce que le projet Objection ?

Le paysage médiatique a été secoué par une annonce qui ressemble davantage au scénario d'une dystopie technologique qu'à une réelle innovation entrepreneuriale. Une startup baptisée Objection a dévoilé ses intentions de créer un tribunal algorithmique, conçu pour juger la pertinence et la véracité du travail journalistique. Le concept est aussi simple qu'effrayant : offrir une alternative ultra-rapide aux procédures judiciaires classiques en permettant à quiconque se sent lésé par un article d'obtenir une « décision » rendue par une intelligence artificielle. L'objectif affiché est de réduire drastiquement le temps et le coût nécessaires pour contester une information, mais l'implication pour la liberté de la presse est immédiate et terrifiante.
Aron D'Souza, le fondateur de ce projet, ne cache pas sa volonté d'en découdre avec ce qu'il perçoit comme l'impunité des journalistes. Sa déclaration, reprise par plusieurs observateurs, résume à elle seule la philosophie agressive de l'entreprise : « Seuls les journalistes peuvent publier des verdicts sans procédure régulière. Cela s'arrête aujourd'hui. » Cette phrase marque une rupture symbolique majeure, positionnant le journalisme non plus comme un contre-pouvoir nécessaire, mais comme une autorité arbitraire qu'il faudrait « discipliner » par la technologie. En sous-main, cette initiative suggère que la vérification des faits, jusqu'ici assurée par la critique des pairs, la rectification et la justice, devrait être déléguée à une boîte noire algorithmique.
Une justice privatisée au service des puissants
Pour donner une crédibilité technique à ce projet politique, Objection s'appuie sur ce qu'elle nomme le « Judicial-Purpose Transformer » (JPT). Il s'agit d'une architecture d'IA spécialement conçue pour simuler le raisonnement juridique, guidée par des transformateurs fondamentaux capables d'analyser d'immenses volumes de données. L'idée est de publier l'ensemble du processus — documents, communications, preuves et répliques — dans une « salle de données publique », afin d'assurer une transparence de façade. Pourtant, derrière cet affichage de transparence technologique, c'est bien la remise en cause du jugement humain qui est à l'œuvre. Ce système promet de trancher des litiges complexes en un temps record, là où la justice humaine prendrait des années, créant ainsi une menace constante de « verdict express » au-dessus de la tête des rédactions.
Le communiqué de presse relayé par la presse financière ne fait pas dans la demi-mesure. Objection se présente comme le juge de paix du XXIe siècle, capable de condenser une décennie de batailles juridiques en un long week-end. Les investisseurs qui ont mis la main au portefeuille pour soutenir cette vision ne sont pas des acteurs anonymes du secteur technologique, mais des poids lourds de la finance, dont les intentions politiques sont bien établies. Parmi eux, on trouve Peter Thiel, le célèbre investisseur de la Silicon Valley, mais aussi Sarah Cone de Social Impact Capital et Max Samuel d'Off Piste Capital. Leur présence aux côtés d'Aron D'Souza valide une approche radicale : celle d'une justice privatisée, livrée à la logique algorithmique et au financement capitaliste.
La promesse d'une rapidité suffocante

Le ton militant adopté par la startup pour décrire son outil est particulièrement révélateur. Il ne s'agit pas de parler d'assistance à la vérification ou d'outil d'aide à la décision, mais bien de « juger » et d'« investiguer ». En promettant qu'un processus qui prendrait cinq à dix ans au tribunal peut désormais être bouclé en soixante-douze heures, Objection cible directement la vulnérabilité économique des médias. Face à la menace d'un jugement rapide et potentiellement infamant rendu par une machine, combien de rédactions oseront publier des enquêtes sensibles ?
Cette promesse de vitesse est en réalité une arme de dissuasion massive, un moyen de pression constant qui risque d'instaurer une autocensure préventive au sein des newsrooms. C'est la transformation de l'information en un produit soumis à une validation algorithmique instantanée. Le risque est de voir les médias préférer la sécurité d'une ligne éditoriale inoffensive à la prise de risque nécessaire à l'investigation. En réduisant le délai de réponse à quelques jours, on supprime le temps de la réflexion et du débat public, éléments essentiels d'une démocratie saine.
L'illusion du Judicial-Purpose Transformer
Derrière l'appellation technique et rassurante de « Judicial-Purpose Transformer » se cache une ambition qui dépasse largement la simple innovation logicielle. Ce JPT n'est pas seulement un moteur de traitement du langage ; il est présenté comme l'organe central d'une nouvelle forme de justice. Le principe repose sur l'utilisation de modèles de raisonnement fondamentaux, guidés par un transformateur spécifiquement entraîné pour trancher des litiges. En d'autres termes, on demande à une machine d'apprendre les subtilités du droit, de l'éthique et de la vérité journalistique pour les appliquer de manière binaire.
C'est ici que le bât blesse. La vérité en journalisme est rarement une équation mathématique résoluble par un algorithme. Elle dépend du contexte, de la nuance, de la protection des sources et parfois de l'interprétation de faits qui ne sont pas encore établis comme des certitudes incontestables. En donnant à une IA le pouvoir de dicter ce qui est « vrai » ou « faux », on risque de substituer la complexité du raisonnement humain par une probabilité statistique. Le nom de cet outil, JPT, sonne comme une sentence définitive, l'objectivation d'un jugement qui resterait, s'il était humain, sujet à appel et débat. Sous le vernis technologique se cache donc une volonté politique de normaliser une vérité unique, formatée par les données sur lesquelles l'IA a été entraînée.
Qui sont les visages derrière Objection ?
Pour comprendre la véritable nature d'Objection, il est indispensable de se pencher sur le passé de ses bienfaiteurs, et plus particulièrement de Peter Thiel. Ce projet n'émerge pas du néant, mais est le fruit d'une histoire personnelle et idéologique conflictuelle avec la presse d'investigation. Thiel, cofondateur de PayPal et de Palantir, n'est pas un simple investisseur en quête de retour sur investissement ; c'est un milliardaire libertarien qui a théorisé et financé la destruction d'un média qui l'avait déplu. Cette antériorité jette une lumière crue sur les motivations possibles derrière le financement d'un « tribunal IA » chargé de juger les journalistes.
Le fantôme de Gawker et la vengeance des milliardaires
L'affaire Gawker reste la pierre angulaire de cette méfiance. En 2016, le site d'actualités Gawker a été contraint de se mettre en faillite après avoir perdu un procès en diffamation intenté par le catcheur Hulk Hogan. Ce que l'on a appris plus tard, c'est que Peter Thiel avait financé secrètement cette bataille juridique, injectant des millions de dollars pour détruire une publication qu'il jugeait irrespectueuse de la vie privée des élites. Cet événement a sonné comme un avertissement pour toute la presse : un individu suffisamment riche pouvait utiliser le système judiciaire comme une arme pour faire taire une voix qui le dérangeait.
Avec Objection, Thiel semble passer à l'étape suivante, en tentant d'automatiser et de démocratiser ce type de pression, rendant la chasse aux journalistes potentiellement plus facile et moins coûteuse. Son profil, celui d'un partisan d'une réduction maximale de l'État et d'une liberté individuelle absolue, s'accorde mal avec la création d'un outil de surveillance globale. C'est pourtant la logique implacable d'une idéologie qui voit dans les médias d'investigation une menace excessive pour l'élite entrepreneuriale. La destruction de Gawker n'était pas un accident, mais un test grandeur nature pour ce qui suit aujourd'hui : l'utilisation de la technologie pour museler la critique.

De l'architecte de Gawker au juge IA
Cette continuité entre la destruction de Gawker et la création d'Objection est soulignée par la présence d'Aron D'Souza à la tête de la startup. Ancien collaborateur de Thiel, c'est lui qui a dirigé la stratégie juridique anti-Gawker. Aujourd'hui, il réutilise son expérience pour construire une plateforme dont le but affiché est de demander des comptes aux journalistes. Le parallèle est frappant : après avoir utilisé la loi pour anéantir un média, ils entendent désormais utiliser l'IA pour surveiller l'ensemble de la profession.
La philosophie de D'Souza est résumée dans une citation qui fait froid dans le dos : « Peter Thiel et moi avons utilisé le système judiciaire pour prouver que les journalistes ne sont pas immunisés contre la reddition de comptes. » En transférant cette logique à Objection, il ne cherche pas à améliorer la qualité de l'information, mais à instaurer un système de surveillance permanent. Il considère que les journalistes ont trop de pouvoir et qu'il faut les « discipliner » par des mécanismes externes, qu'ils soient judiciaires ou algorithmiques. La nomination de D'Souza à la tête de cette startup est un message fort envoyé aux rédactions : l'homme qui a réussi à fermer un média par la force de la loi prépare maintenant à le faire par la force de l'algorithme.
Une partialité assumée contre la presse indépendante
Cette continuité idéologique pose la question cruciale de l'impartialité d'Objection. Comment espérer qu'une plateforme dirigée par quelqu'un qui a déclaré la guerre aux médias d'investigation puisse traiter les articles de manière équilibrée ? Le risque est grand de voir cet outil utilisé pour cibler spécifiquement les enquêtes gênantes, transformant l'IA en une arme de destruction massive pour le journalisme indépendant. D'Souza ne cherche pas à servir la justice, mais à parachever l'œuvre entamée avec Gawker : une reddition des comptes unilatérale imposée par les puissants à ceux qui osent les critiquer.
En plaçant des ennemis jurés de la presse libre aux commandes d'un système prétendant définir la vérité, on crée un conflit d'intérêts structurel. Il ne s'agit pas de corriger des erreurs factuelles, mais de contrôler le récit narratif. L'histoire de Peter Thiel et Aron D'Souza suggère que leur vision de la « responsabilité » des journalistes se limite à leur capacité à ne pas déranger les puissants. C'est une vision biaisée, dangereuse pour une société qui repose sur le pluralisme de l'information et la capacité de la presse à agir comme chien de garde.
Comment fonctionne l'algorithme de jugement ?
L'architecture technique proposée par Objection vise à donner une illusion de rigueur scientifique à un processus intrinsèquement subjectif. La startup décrit un système hybride mêlant intervention humaine et puissance de calcul artificielle. D'un côté, des enquêteurs humains, issus des agences de renseignement américaines comme le FBI, la NSA ou la CIA, seraient chargés de rassembler les preuves et de mener les premières investigations. De l'autre, une IA superviserait le processus contradictoire et rendrait un verdict final, le tout étant publié dans une « salle de données publique ». Cette description a pour fonction de rassurer le public sur la fiabilité du système, mais elle soulève en réalité des questions fondamentales sur l'indépendance et la partialité de ce futur tribunal.
Le rôle trouble des agences de renseignement
L'implication d'anciens agents du renseignement dans le jugement du journalisme est un point qui devrait alerter toute personne soucieuse des libertés civiles. Ces professionnels sont formés à la sécurité nationale et au secret, pas à l'éthique du journalisme ou à la protection des sources. Confier à d'anciens espions le rôle de vérifier la véracité d'un article d'investigation, c'est risquer de voir se superposer une logique de contrôle de l'information à la logique de liberté d'expression. De plus, l'intervention de ces humains ne sert finalement qu'à nourrir l'algorithme. La phase critique, celle du jugement, reste dévolue à la machine. C'est l'illusion d'un procès équitable : on permet la défense, mais le juge est programmé par ceux qui l'ont créé.

La mécanique d'Objection repose sur une promesse d'hybridation entre l'expertise humaine et l'efficacité numérique. En recrutant des anciens de la communauté du renseignement américain, la startup s'assure des compétences techniques indéniables pour l'analyse de données et la traque des informations. Cependant, elle introduit également un biais culturel majeur. Les agents du FBI ou de la CIA ne raisonnent pas en termes d'intérêt public journalistique, mais en termes de menace, de sécurité et de classification de l'information. Leur participation à ce projet suggère que l'IA d'Objection sera entraînée à repérer ce qui ressemble à une fuite ou à une violation de sécurité, plutôt qu'à évaluer la qualité journalistique d'une enquête.
Une indépendance sous influence
La question de l'indépendance de ces enquêteurs est également cruciale. Qui les paie ? Objection, financée par Peter Thiel et ses alliés. Quel cadre définit leur travail ? Celui d'une plateforme dont le but est de rendre des verdicts rapides. Il existe un risque réel de voir ces « experts » humains orienter leur recherche pour satisfaire les attentes de l'algorithme ou de leurs bailleurs de fonds, quitte à sacrifier la nuance. L'architecture hybride présentée par Objection ressemble davantage à une usine à condamner médiatiquement qu'à une instance de réflexion éthique. L'élément humain n'est là que pour valider techniquement les données avant que la machine ne tranche, transformant les enquêteurs en simples auxiliaires d'un verdict préétabli par le code informatique.
L'opacité des critères de vérité
Le point névralgique du système Objection reste le moment où la machine rend son verdict. Sur quels critères l'IA va-t-elle décider qu'une affirmation est « vraie » ou « fausse » ? Contrairement à ce que suggèrent les promoteurs de l'IA générative, la vérité journalistique n'est pas une suite de faits binaires facilement vérifiables par un algorithme. Un article peut être factuellement exact mais trompeur par omission, ou inversement, contenir des imprécisions factuelles mais révéler une vérité plus profonde sur le fonctionnement d'une institution. L'intelligence artificielle, basée sur l'analyse statistique de textes existants, est incapable de saisir cette dimension contextuelle et nuancée.
Le danger réside dans l'invisibilité de ces critères de jugement. Si un juge humain doit motiver sa décision en se référant à des textes de loi et à une jurisprudence, un algorithme fonctionne avec des « poids » et des « biais » enfouis dans ses couches de neurones. Objection affirme vouloir publier ses données dans une salle publique, mais cela ne change rien au problème fondamental : le processus intellectuel qui mène au verdict est opaque. Comment contester une décision rendue par une boîte noire ? De plus, comment l'IA pourrait-elle évaluer l'intérêt public d'une révélation ? Si un lanceur d'alerte fournit des documents prouvant des agissements illégaux, mais que ces documents ne peuvent être corroborés par des sources publiques sur Internet, l'IA risque de les classer comme « non fiables », enterrant ainsi une information cruciale pour la démocratie.
Pourquoi les hallucinations de l'IA mettent-elles en danger la justice ?
Pour saisir l'absurdité de confier le rôle de juge à une intelligence artificielle, il suffit de regarder comment ces systèmes fonctionnent réellement. Contrairement à une encyclopédie qui contient des informations vérifiées, une IA générative comme ChatGPT ne « sait » rien. Elle ne stocke pas des faits, mais elle prédit des suites de mots probables. Lorsqu'on lui pose une question, elle calcule statistiquement quel mot est le plus susceptible de suivre le précédent, en se basant sur les milliards de textes qu'elle a ingérés lors de son entraînement. Ce mécanisme, bien que brillant pour générer du texte ou de la conversation, est intrinsèquement inadapté à la recherche de la vérité factuelle.
Le mécanisme de l'erreur : l'exemple François Bayrou
Le phénomène des « hallucinations » illustre parfaitement cette limite. L'IA peut affirmer des choses totalement fausses avec une assurance totale et un style impeccable. Un exemple frappant, rapporté par des experts en cybersécurité, concerne François Bayrou. Demandez à ChatGPT, en septembre 2025, si ce dernier a été Premier ministre de la France, et il est possible qu'il réponde par la négative avec une grande conviction. Pourtant, François Bayrou a bien occupé ce poste, même si ce fut de manière intérimaire. L'IA ne ment pas par malveillance, elle se trompe parce qu'elle tente de combler les vides de sa base de connaissances par des probabilités langagières. Elle mélange le vrai et le faux, citant parfois des noms réels pour leur attribuer des actions fictives, ou inventant des décennies de justice.
Il est crucial de déconstruire le mythe de l'intelligence « omnisciente ». Au fondement de ChatGPT et de ses semblables, il n'y a pas de compréhension du monde, mais du calcul. Si l'on explique que « l'IA ne sait rien », ce n'est pas par hyperbole, mais par description technique de son fonctionnement. Elle ne possède pas de représentation interne du concept de « Premier ministre » ou de « réalité politique ». Elle ne fait que manipuler des symboles linguistiques. Si, dans ses données d'entraînement, la cooccurrence des mots « Bayrou » et « Premier ministre » est faible par rapport à d'autres associations, l'algorithme privilégiera la probabilité statistique la plus élevée, quitte à nier un fait historique.
Le danger judiciaire des hallucinations
Les conséquences de cette mécanique sont déjà concrètes et ne se limitent pas aux erreurs anecdotiques lors de discussions de salon. Dans le domaine judiciaire, des cabinets d'avocats de premier plan ont été sanctionnés pour avoir soumis des mémoires remplis de jurisprudences inventées par des chatbots. En mai 2025, le prestigieux cabinet Butler Snow a ainsi fait face à des sanctions après avoir utilisé une IA pour générer des citations dans une affaire d'agression. Le juge fédéral Manasco a sévèrement critiqué ce « manque de diligence », soulignant que la technologie avait produit des références juridiques parfaitement plausibles mais totalement imaginaires.
Si des professionnels du droit, payés pour vérifier chaque détail, peuvent être trompés par ces hallucinations, comment un simple lecteur, ou pire, une IA « juge », pourrait-il distinguer le vrai du faux ? La forme la plus insidieuse des hallucinations n'est pas le mensonge grossier, mais le mélange indiscernable entre vérité et fiction. L'IA peut citer correctement l'existence d'une loi précise, mais en inventer l'article crucial. Elle peut mentionner une personne réelle présente à un événement, mais lui attribuer une déclaration qu'elle n'a jamais faite. C'est exactement le type d'erreur qui peut discréditer un travail journalistique honnête.
La probabilité contre l'enquête de terrain
Imaginez une enquête sur un scandale financier : si l'IA ne trouve pas la trace d'un transfert d'argent dans les documents publics numériques (parce qu'il a été fait en liquide ou via un paradis fiscal non répertorié), elle pourrait conclure que l'article est faux. L'absence de données dans le corpus d'entraînement de l'IA équivaut pour elle à une inexistence. Cette logique binaire est la négation même de l'enquête de terrain, qui consiste justement à aller chercher ce qui ne se trouve pas ouvertement. Confier le verdict à une machine qui ne peut pas comprendre ce qu'elle ne voit pas, c'est donner la primauté au visible sur le réel, et à la statistique sur la vérité.
Les outils d'IA comportent de nombreux biais : ils produisent des réponses vraisemblables, mais pas forcément vraies, et reflètent les biais culturels des contenus qu'ils absorbent en ligne. Si l'on utilise ces informations sans vérification, on publie de la fiction en la présentant comme des faits. C'est la négation même du métier de journaliste. En automatisant le jugement, on automatise aussi l'erreur, mais avec une autorité qui peut dissuader toute contestation.
Quels risques pour les lanceurs d'alerte et les enquêtes majeures ?
Le journalisme d'investigation puise sa force dans la capacité de ses sources à révéler des informations que les puissants veulent cacher. Ces lanceurs d'alerte prennent des risques immenses pour leur carrière, leur sécurité et leur vie privée. Leur courage a permis de mettre au jour des scandales majeurs qui ont secoué le monde politique et économique. Cependant, ce fragile équilibre repose sur la confiance : la confiance que le média saura traiter l'information avec soin, et la confiance que le public saura la recevoir. L'avènement d'outils comme Objection, capables de délivrer des « verdicts » automatiques de non-fiabilité, risque de briser ce pacte et de plonger ces sources dans le silence.
Cambridge Analytica : le risque de l'étouffement algorithmique
Prenons l'exemple de Christopher Wylie, le lanceur d'alerte de l'affaire Cambridge Analytica. C'est grâce à sa décision de révéler l'utilisation massive de données privées de millions d'utilisateurs Facebook pour manipuler les opinions politiques que le monde a compris l'ampleur de la cyber-démocratie. Sans sa collaboration et le travail des journalistes pour vérifier et contextualiser ses documents, ces pratiques auraient continué dans l'ombre. Wylie a pris un risque colossal en s'exprimant. Si, à l'époque, il avait su qu'une IA financée par des intérêts privés pourrait, en quelques heures, qualifier ses révélations de « non corroborées » ou de « probables hallucinations », aurait-il franchi le pas ?
Les documents fournis par Wylie étaient complexes, techniques et souvent incomplets sans contexte. Une IA entraînée pour repérer la cohérence factuelle immédiate aurait pu rejeter en bloc ces révélations simplement parce qu'elles ne correspondaient pas au discours officiel de l'époque ou aux données publiques disponibles. L'histoire montre pourtant qu'elles étaient vraies. La faiblesse intrinsèque de l'IA face aux révélations inédites — qui sont par définition absentes des données d'entraînement — en fait un instrument parfait pour étouffer les scoops qui dérangent.
Uber Files : 124 000 documents menacés par l'IA
Le scandale des Uber Files offre un exemple encore plus frappant de ce qui est en jeu. En 2022, Mark MacGann, ancien lobbyiste principal d'Uber, a livré aux journalistes du Guardian plus de 124 000 documents internes. Ces courriels, présentations et messages ont révélé comment l'entreprise avait délibérément enfreint les lois, utilisé des logiciels pour contourner les contrôles de police et manipulé les gouvernements pour s'imposer. L'ampleur de la fuite était sans précédent. Mark MacGann a déclaré avec une gravité déchirante : « Nous avons vendu un mensonge aux gens. » Cette confession, appuyée par des preuves matérielles, est le moteur du journalisme d'investigation.
Or, que serait-il advenu de ces 124 000 documents face à un système comme Objection ? Ces documents étaient internes, confidentiels, et pour beaucoup, non accessibles via une simple recherche sur Internet. Une IA entraînée sur les données publiques n'aurait eu aucun moyen de vérifier instantanément leur authenticité ou de recouper les informations qu'ils contenaient. Plus inquiétant encore, le fait même que ces documents proviennent d'une source anonyme et contestée par l'entreprise (Uber n'a pas admis les faits immédiatement) aurait pu déclencher les critères de « suspicion » de l'algorithme. Objection aurait pu rendre un verdict de « fausse information » ou de « contenu non vérifié », enterrant ainsi l'enquête sous une chape de doute algorithmique avant même que le public ne puisse se faire sa propre opinion.
L'effet glacial sur la démocratie
La menace la plus directe d'Objection n'est pas tant la condamnation effective des médias que la création d'un climat de peur, un « effet glacial » sur les potentiels lanceurs d'alerte. Aujourd'hui, quelqu'un qui souhaite révéler une illégalité sait qu'il risque des poursuites judiciaires, mais il sait aussi que la justice est lente, que les droits de la défense existent et qu'il a le temps de s'organiser avec des journalistes pour construire un dossier solide. Face à une IA, la temporalité change radicalement. Le verdict peut tomber en 72 heures. C'est trop court pour construire une défense, trop rapide pour permettre au débat public de s'instaurer.
C'est cette peur de la machine qui risque de paralyser les consciences. Un lanceur d'alerte potentiel pourrait se dire : « À quoi bon risquer ma carrière si une IA financée par les lobbys peut discréditer mon témoignage en un week-end ? » Ce n'est plus seulement la peur du pouvoir judiciaire, mais la peur d'une technologie présentée comme neutre et objective, alors qu'elle est potentiellement biaisée et contrôlée par des intérêts privés. Comme nous l'avons vu dans notre analyse sur le Vétéran américain et fuites classifiées : traque des sources et journalisme en danger, la chasse aux sources est déjà une réalité sous l'ère numérique. Objection risque de donner à cette chasse un outil d'une puissance inédite, capable de décréter la « fausseté » d'une vérité qui ne plaît pas, avant même que quiconque ne puisse l'examiner.
Vers une normalisation de l'évaluation algorithmique dans les médias
Si le projet d'Objection peut sembler extrême, il s'inscrit malheureusement dans une tendance plus large de normalisation de l'évaluation algorithmique du travail journalistique. Ce n'est plus uniquement l'apanage de startups externes hostiles à la presse ; certains médias eux-mêmes commencent à intégrer l'IA pour surveiller leurs propres productions. Ce phénomène d'auto-surveillance illustre une perte de confiance des rédactions envers leur propre jugement, ou une volonté de se prémunir contre les critiques en adoptant les outils de leurs détracteurs.
Le cas du Los Angeles Times et l'outil « Insights »
Le cas du Los Angeles Times est particulièrement éloquent. Le quotidien américain a mis en place un outil interne baptisé « Insights », qui génère automatiquement une note pour évaluer les biais dans les articles d'opinion. Cette note, produite par une intelligence artificielle, est affichée aux côtés des articles, suggérant que le texte a été « validé » ou « analysé » par une machine pour détecter d'éventuels partis pris. Bien que l'intention affichée puisse être louable — celle de la transparence — l'implication est profonde : on délègue à un algorithme la définition de ce qui est équilibré ou partial.
L'initiative du Los Angeles Times avec l'outil « Insights » marque un tournant inquiétant dans la pratique journalistique. En soumettant les éditoriaux et tribunes à l'analyse d'une IA, la rédaction admet implicitement que l'humain n'est plus un juge suffisant de la qualité ou de l'équilibre de son propre propos. L'algorithme ne se contente pas de vérifier l'orthographe ou la grammaire, il prétend juger le ton, l'orientation politique et la partialité. Or, le journalisme d'opinion repose par essence sur une prise de position subjective, étayée par des faits. La normaliser par une note « d'impartialité » risque d'aseptiser le débat, de pousser les auteurs à écrire pour plaire à l'IA plutôt qu'exprimer une pensée tranchée.
Auto-censure et aseptisation du débat
Cette dynamique s'apparente à de l'auto-censure déguisée. Si un journaliste sait que son article recevra une mauvaise note de biais s'il prend position trop fermement, il pourrait être tenté d'atténuer son propos pour éviter la stigmatisation. C'est la lente mais sûre standardisation de la pensée médiatique par la technologie. L'IA ne comprend pas l'ironie, le sarcasme ou la nuance contextuelle qui permet de défendre un point de vue polémique. En cherchant à se protéger des accusations de partialité par la technologie, la presse risque de s'interdire de dire l'essentiel.
C'est un parallèle troublant avec les discussions actuelles sur la Loi Yadan, qui montre comment la peur du jugement peut restreindre l'expression. Les médias, en adoptant ces outils, deviennent leurs propres censeurs. Ils abandonnent leur rôle de tribune pour la diversité des opinions pour se conformer à une norme algorithmique plates, incapable de saisir la richesse de la pensée humaine. Cette évolution prépare le terrain à des outils comme Objection : si les médias eux-mêmes acceptent d'être jugés par des machines, pourquoi le public refuserait-il un tribunal IA externe ?
Refonder le journalisme ou disparaître
Face à cette montée de l'automatisation, certains observateurs tirent la sonnette d'alarme. Le Monde diplomatique a publié un diagnostic sévère mais nécessaire : le journalisme s'est lui-même rendu automatisable en s'asservissant à la pression du clic et de l'instantané. En sacrifiant la profondeur de l'analyse au profit de la viralité, les médias ont créé un contenu que les IA peuvent désormais imiter, voire remplacer, sans grande difficulté. La réponse à cette menace technologique ne serait donc pas d'ajouter encore plus d'IA dans la rédaction, comme le suggèrent certains organismes professionnels, mais de refonder la profession sur des valeurs que la machine ne peut pas reproduire.
L'Association mondiale des éditeurs de presse (WAN-IFRA) pousse pourtant les médias à « embrasser un futur façonné par l'IA », exhortant les rédactions à intégrer ces outils pour la production, la distribution et même la génération de sujets. C'est une voie dangereuse qui risque d'accélérer la perte de confiance du public. Si le lecteur apprend que l'article qu'il lit a été noté, corrigé ou suggéré par une machine, pourquoi continuerait-il à payer pour un média humain ? À l'inverse, la Fondation Hirondelle a adopté une directive résolument tournée vers la responsabilité humaine, refusant par exemple d'utiliser des voix d'IA pour lire des annonces communautaires afin de préserver le lien de confiance authentique avec l'auditeur. La confiance est au cœur de la relation avec le public ; il est donc essentiel d'être clair sur la manière et les moments où l'IA est utilisée.
Craig Forman, professeur à Sciences Po, s'interroge d'ailleurs sur l'avenir : l'IA va-t-elle tuer la presse ou lui permettre de se perfectionner ? La réponse dépendra de la capacité des journalistes à défendre leur valeur ajoutée : l'enquête de terrain, la vérification humaine, l'analyse critique et la protection des sources. Si l'IA est utilisée comme un substitut au jugement, la presse disparaîtra. Si elle est utilisée comme un outil au service d'une mission éditoriale claire, elle pourra survivre. Cependant, des initiatives comme Objection, qui cherchent à remplacer le journaliste par un algorithme, montrent que la bataille pour la survie du journalisme indépendant ne fait que commencer.
Conclusion : la vérité ne doit pas être un algorithme
L'émergence d'Objection et d'initiatives similaires nous confronte à un paradoxe vertigineux : à l'heure où l'intelligence artificielle démontre ses limites en matière de véracité — comme en témoignent les hallucinations sur François Bayrou ou les erreurs judiciaires des cabinets d'avocats — certains veulent lui donner le rôle de juge suprême de l'information. Le projet porté par Aron D'Souza et financé par Peter Thiel n'est pas une solution aux problèmes de désinformation, c'est une tentative de mainmise sur la réalité narrative par les puissants. C'est confier le soin de définir la vérité à une machine dont on ne connaît pas les biais, et financée par un homme qui a déjà prouvé sa volonté de détruire un média qui le dérangeait.
Le danger démocratique est imminent. Sans les lanceurs d'alerte comme Christopher Wylie ou Mark MacGann, des scandales d'une ampleur historique comme Cambridge Analytica ou les Uber Files seraient restés enfouis. Ces personnes ont pris des risques immenses parce qu'elles croyaient en la capacité du journalisme à révéler la vérité. Si une IA, contrôlée par des intérêts privés, peut instantanément qualifier leur témoignage de « faux » ou de « biaisé », le lien de confiance se brise. Nous nous dirigeons vers un monde où la vérité ne serait plus ce qui est enquêté et vérifié par des humains, mais ce qui est validé par un algorithme conforme aux intérêts de ses créateurs.
La véritable objection n'est pas technologique, elle est politique et éthique. Confier à une machine financée par un milliardaire vindicatif le pouvoir de déclarer un article « vrai » ou « faux », c'est céder un droit de vie ou de mort sur le journalisme d'investigation. Comme nous l'avons vu récemment avec l'arrêt du 17 mars 2026 étendant le secret des sources, la protection de l'information est un combat constant (Secret des sources étendu en tout lieu : l'arrêt du 17 mars 2026). Face à la menace algorithmique, il est plus urgent que jamais de rappeler que la justice ne peut être rendue par une formule mathématique, et que la vérité ne peut être réduite à une probabilité statistique. Si l'IA de Thiel devient la norme, qui osera encore révéler ce qui ne doit pas être vu ?