En août 2025, le paysage de l'assistance à l'écriture a été secoué par une initiative technologique d'une audace rare. L'entreprise alors connue sous le nom de Grammarly a dévoilé « Expert Review », une fonctionnalité promettant d'offrir aux utilisateurs des conseils rédactionnels inspirés par les plus grandes plumes de la planète. L'idée semblait séduisante sur le papier : transformer l'acte solitaire de l'écriture en un mentorat virtuel avec des figures emblématiques. Cependant, ce qui fut présenté comme une prouesse algorithmique s'est rapidement avéré être une entreprise d'usurpation d'identité à grande échelle, laissant la communauté des créateurs en état de choc.

La supercherie n'a pas tardé à être démasquée par les principaux intéressés. Derrière l'interface user-friendly se cachait une réalité bien plus sombre : l'entreprise avait pillé l'identité numérique de centaines de professionnels pour vendre un service d'abonnement. En créant de toutes pièces des avatars d'experts vivants ou morts, la firme a franchi une ligne éthique indéfendable, transformant la réputation et le style unique d'autrui en simple carburant commercial. C'est cette découverte, portée par la colère légitime des auteurs, qui a forcé le géant de la Tech à faire face à ses propres dérives.
L'éditeur fantôme : comment « Expert Review » a piraté l'identité des écrivains
Le lancement de la fonctionnalité « Expert Review » en août 2025 a marqué un tournant dans l'histoire de l'entreprise. Pour la première fois, un correcteur grammatical ne se contentait plus de pointer les fautes d'orthographe ou de syntaxe. Il prétendait offrir une véritable supervision éditoriale. L'interface proposait une immersion troublante : l'utilisateur rédigeait son texte, et des fenêtres contextuelles surgissaient suggérant des modifications de ton, de rythme ou de structure. La particularité choquante résidait dans l'attribution explicite de ces conseils à des personnalités célèbres, créant une illusion d'autorité indiscutable.

Cette innovation reposait en réalité sur un procédé trompeur. L'interface ne distinguait pas clairement entre l'imitation synthétique de l'algorithme et l'avis réel de l'auteur. En affichant fièrement les noms de célébrités à côté de suggestions automatisées, l'entreprise a induit les utilisateurs en erreur, leur faisant croire qu'ils bénéficiaient de l'expertise réelle de ces icônes. Ce n'était pas de l'intelligence artificielle au service de la créativité, mais une mascarade technologique visant à justifier des tarifs d'abonnement premium par une promesse de proximité intellectuelle fictive.
Des conseils signés Stephen King ou Carl Sagan (sans leur accord)
La mise en œuvre technique de cette fonctionnalité reposait sur une base de données de « personas » constituée sans le moindre consentement. Si un utilisateur rédigeait un passage de science-fiction, l'IA pouvait suggérer une modification en se présentant comme Carl Sagan. Pour un thriller, c'est le style supposé de Stephen King qui était invoqué. Pour l'analyse technologique, c'était Kara Swisher qui était mise à contribution. Ces suggestions n'étaient pas de simples citations, mais des préconisations actives intégrées dans le flux de travail de l'écrivain, ce qui leur conférait une force de persuasion considérable.
Aucun de ces auteurs, qu'ils soient des monstres sacrés de la littérature ou des journalistes influents, n'avait été contacté. Leurs œuvres avaient probablement été ingérées par les modèles d'apprentissage automatisé pour entraîner l'algorithme, mais l'étape suivante — l'utilisation commerciale explicite de leur nom pour valider des conseils automatisés — s'était faite dans l'opacité la plus totale. Cette appropriation non consentie a constitué le fondement du scandale. L'entreprise a capitalisé sur la crédibilité intellectuelle d'autrui pour enrichir sa propre offre, ignorant totalement les droits moraux et patrimoniaux des créateurs.
L'illusion de crédibilité : vendre une IA défaillante
L'objectif commercial sous-jacent à cette fonctionnalité était évident : se différencier dans un marché saturé de correcteurs orthographiques en vendant de l'autorité. Cependant, cette crédibilité achetée s'est avérée illusoire, voire dangereuse. L'intelligence artificielle générative, malgré ses progrès, reste une machine probabiliste capable de produire des « hallucinations ». Dans le cas d'Expert Review, l'IA a fréquemment généré des conseils incohérents, banals ou simplement faux, tout en les estampillant du nom de personnalités réputées pour leur rigueur.
Ce mélange d'incompétence technique et d'audace marketing a créé un risque élevé de désinformation. Un journaliste débutant ou un étudiant recevant un conseil médiocre mais signé « Stephen King » ou « Neil deGrasse Tyson » était naturellement enclin à le suivre aveuglément, confiant dans l'autorité de l'expert cité. L'entreprise a donc sciemment mis en circulation des contenus potentiellement nuisibles, enrobés dans le prestige d'autrui. C'est cette rencontre entre une technologie défaillante et une stratégie marketing sans scrupules qui a allumé la mèche des protestations, transformant un avantage concurrentiel en crise de réputation majeure.
« Ça pourrait ruiner ma carrière » : le déclic et la colère de Julia Angwin
Si l'usurpation de l'identité de célébrités mondiales a choqué l'opinion, c'est l'implication de professionnels moins connus mais actifs qui a transformé l'incident technologique en crise juridique. L'affaire a basculé lorsque la journaliste d'investigation Julia Angwin a découvert que son propre nom figurait dans la liste des « experts » prêts à corriger les textes des abonnés. Pour une lauréate du prix Pulitzer dont la crédibilité est l'outil de travail principal, se voir attribuer des propos qu'elle n'avait jamais tenus n'était pas une simple annoyance technique, mais une menace existentielle.
Ce moment a marqué un tournant décisif. Ce n'était plus une simple fonctionnalité « amusante », c'était une tromperie dangereuse mettant en péril la réputation de ceux qui vivent de leur plume. La réaction immédiate d'Angwin et sa détermination à porter l'affaire devant la justice ont servi de détonateur pour une prise de conscience collective. Elle a démontré que le vol de style littéraire n'était pas une victime collatérale abstraite de l'IA, mais une attaque directe contre l'intégrité professionnelle des rédacteurs.
Le conseil fictif qui a tout fait basculer
Le point de rupture pour Julia Angwin a été la nature précise du conseil que l'IA attribuait à son nom. L'algorithme suggérait à un utilisateur d'incorporer une anecdote impliquant une personne fictive pour illustrer un point. Pour une journaliste d'investigation attachée à la vérification rigoureuse des faits et à la précision des sources, voir son nom associé à l'invention d'une personne imaginaire était une aberration professionnelle absolue. Elle a réagi avec force, soulignant qu'il ne s'agissait pas seulement d'une mauvaise édition, mais d'une tromperie qui pouvait mettre fin à sa carrière.
Cette citation résume parfaitement l'ampleur du préjudice potentiel. Si un utilisateur avait suivi ce conseil pseudo-Angwin et publié un article contenant une source fictive, le dommage aurait été double. D'abord pour le lecteur trompé par une information fausse, mais surtout pour Julia Angwin, dont la réputation d'intégrité aurait été irrémédiablement ternie par une faute qu'elle n'avait jamais commise. C'est cette conscience aiguë du risque de réputation, la monnaie la plus précieuse pour un journaliste, qui a motivé sa décision de ne pas laisser passer cet acte et d'engager des poursuites.
Quand le deepfake s'attaque au style d'écriture
Jusqu'à présent, le concept de « deepfake ». Initialement, cette problématique se concentrait sur l'altération de contenus visuels ou auditifs visant à nuire à la réputation de personnalités publiques. Cependant, Julia Angwin a été confrontée à une forme inédite de manipulation : l'appropriation de sa signature littéraire. Elle a exprimé sa stupeur en découvrant que son « style », c'est-à-dire sa compétence éditoriale unique, fruit de décennies de travail et de réflexion, pouvait être volé. C'est une évolution inquiétante de la technologie deepfake qui passe de la copie du physique à la copie de l'intellect.
L'IA n'avait pas simplement usurpé son nom ; elle avait tenté de cloner son identité professionnelle, sa manière de penser et de structurer un argument, pour la vendre à des abonnés. Si un algorithme peut s'approprier la signature intellectuelle d'un expert pour la distribuer à grande échelle, la valeur même de l'expertise humaine est menacée. Angwin a souligné qu'elle n'avait jamais imaginé que son talent éditorial puisse être considéré comme une ressource exploitable par une tierce partie sans son consentement. Cette prise de conscience a ouvert la voie à une bataille juridique inédite sur la propriété du style à l'ère de l'intelligence artificielle.
Des morts exploités et des milliers de plumes spoliées : l'étendue du désastre
Une fois l'affaire Julia Angwin portée sur la place publique, d'autres voix se sont élevées, révélant que l'ampleur du désastre dépassait largement le cas de quelques journalistes célèbres. L'enquête a montré que la base de données constituant les « experts » de l'IA était vaste et indiscriminée. L'entreprise n'avait fait aucune distinction morale : des auteurs vivants côtoyaient des auteurs décédés, des stars internationales côtoyaient des universitaires moins connus mais tout respectés dans leur domaine. C'est cette absence de bornes éthiques qui a transformé un incident marketing en un scandale de société.
Le problème a pris une dimension encore plus sombre avec la découverte de l'exploitation de personnes décédées. Utiliser le nom d'un auteur vivant est illégal et répréhensible, mais utiliser celui d'un défunt, qui ne peut plus se défendre ni donner son avis, relève d'une insensibilité brutale. C'est ce mélange de cupidité commerciale et de mépris pour les droits fondamentaux des créateurs qui a provoqué un tollé universel, forçant l'entreprise à regarder en face l'étendue des dégâts causés par sa technologie débridée.
L'inclusion « obscène » de David Abulafia et des voix fantômes
Parmi les révélations les plus choquantes figure le cas du professeur David Abulafia, historien renommé décédé en janvier 2026, soit seulement quelques mois avant l'éclatement du scandale. Non seulement son nom a été utilisé sans aucune permission, mais il l'a été à des fins purement lucratives par une entreprise privée. Vanessa Heggie, professeure associée à l'Université de Birmingham, n'a pas hésité à qualifier cette inclusion d'« obscène ». Ce terme fort résume l'indignation du monde académique et littéraire : réduire le travail d'une vie à un avatar d'IA pour vendre des abonnements est une violation morale inacceptable.
Cet incident illustre l'incapacité de l'algorithme, et surtout de ses concepteurs, à traiter les données avec un minimum de discernement humain. Pour le système, un nom dans une base de données est une ressource exploitable, quelle que soit l'histoire de la personne derrière ce nom. Cette froideur algorithmique heurte de front les valeurs de respect et de mémoire qui fondent notre rapport aux disparus. L'inclusion de voix fantômes montre que l'entreprise a opéré sans garde-fou, transformant le panthéon littéraire en un catalogue de produits dérivés bon marché, sans égard pour les familles ou les héritiers.
Une base de données de centaines de journalistes et d'auteurs
Il est vite apparu que l'entreprise ne s'était pas contentée de piocher dans une liste restreinte de 50 célébrités mondiales. Des centaines d'autres noms ont été identifiés, allant de journalistes d'investigation de premier plan à des auteurs de moindre renommée, mais tout aussi respectés dans leur domaine spécifique. L'IA avait indexé et cloné leurs identités pour enrichir sa fonctionnalité, créant une vaste base de données de plumes spoliées. Cette approche industrielle du vol d'identité soulève des questions inquiétantes sur la collecte des données publiques.
La plupart des individus concernés ignoraient totalement qu'ils avaient été inclus dans les données de la firme. En scannant probablement des milliers d'articles, de livres et d'essais disponibles en ligne, l'algorithme a associé des noms à des styles, construisant des « profils d'experts » sans jamais solliciter l'avis des personnes. Ce procédé s'apparente à un vaste cannibalisme intellectuel. La notoriété d'un auteur et l'unicité de son style se retournent contre lui : plus ses œuvres sont diffusées, plus il court le risque d'être « ingéré » par une IA pour être ensuite revendu sous forme de conseils automatisés. C'est toute l'économie de la création qui se trouve menacée par cette logique prédatrice.
L'arme juridique fatale et le mea culpa tardif du PDG Shishir Mehrotra
Face à la tempête médiatique et à la colère grandissante de la communauté des créateurs, la réponse judiciaire n'a pas tardé. Ce qui a commencé comme une controverse sur les réseaux sociaux s'est rapidement mué en une bataille juridique majeure aux États-Unis. Les victimes, menées par Julia Angwin et soutenues par des organisations puissantes comme l'Authors Guild, ont décidé de frapper fort là où cela ferait le plus mal : le portefeuille et la réputation de l'entreprise. La riposte a été aussi rapide que dévastatrice pour la direction de l'entreprise.
Pour le PDG Shishir Mehrotra, qui avait piloté le rachat puis le renommage de l'entreprise, l'affaire s'est transformée en une crise de communication majeure. La stratégie d'innovation à tout prix s'est retournée contre ses initiateurs, forçant la direction à abandonner la fonctionnalité centrale de sa nouvelle offre premium. C'est le scénario classique d'une entreprise technologique qui a surestimé sa capacité à gérer les implications éthiques de ses propres outils, se retrouvant désormais acculée par les lois qu'elle avait prétendu pouvoir contourner.
Recours collectif à New York : la violation du droit à la publicity
Le tournant juridique a eu lieu en mars 2026, lorsque Julia Angwin a déposé une plainte en recours collectif devant le tribunal fédéral de New York. Ce recours ne se contente pas de dénoncer une mauvaise pratique ; il invoque explicitement la violation des lois sur le « droit à la publicité » en vigueur à New York et en Californie. Ces textes de loi interdisent strictement l'utilisation du nom, de l'image ou de la voix d'une personne à des fins commerciales sans son consentement explicite. En utilisant les identités des plaignants pour vendre un abonnement payant, la société s'est placée en infraction directe avec ces textes.
La portée de cette plainte est considérable. Elle ne vise pas seulement à obtenir des dommages et intérêts pour les auteurs lésés, mais aussi à établir un précédent juridique majeur dans l'industrie de l'IA. Si le tribunal donne raison aux plaignants, cela signifiera que les entreprises technologiques ne pourront plus utiliser l'identité des créateurs comme carburant gratuit pour leurs algorithmes. C'est une lueur d'espoir pour tous les écrivains qui se sentent impuissants face à l'exploitation massive de leurs œuvres par les géants de la Tech. La bataille juridique est engagée, et ses enjeux dépassent largement le cas isolé de l'éditeur d'écriture.
« We fell short » : le retrait de la fonctionnalité et les excuses sur LinkedIn
Sous la pression de la plainte et du bad press croissant, la direction a dû s'incliner. La fonctionnalité « Expert Review » fut brutalement interrompue, entraînant l'arrêt définitif du projet quelques mois seulement après son démarrage. Afin de tenter de contenir la polémique, le dirigeant Shishir Mehrotra a diffusé une lettre d'excuses détaillée sur LinkedIn. Il y admettait que l'outil avait « déformé » les voix des experts et que l'entreprise avait « échoué » dans sa mission, utilisant la formule « we fell short ».
Cependant, ce mea culpa tardif a été accueilli avec scepticisme, voire cynisme, par de nombreux observateurs. Comme l'a souligné le journaliste Casey Newton, le problème n'était pas tant l'échec technique de l'outil que le choix délibéré de monétiser les identités de personnes réelles sans jamais les impliquer dans le processus. Désactiver la fonctionnalité après s'être fait pris ne change rien à l'intention initiale. Les excuses du PDG ont été perçues comme une tentative minimale de limiter les dégâts financiers et juridiques, plutôt que comme une remise en question sincère du modèle d'affaires prédateur de l'entreprise.
Vos devoirs dans la machine : ce que Grammarly fait de VOS données
Si le vol de l'identité d'auteurs célèbres comme Stephen King ou Julia Angwin semble être un problème qui les concerne eux, il serait naïf de croire que l'utilisateur moyen est à l'abri. Ce scandale doit servir de révélateur sur une question bien plus vaste : que fait l'entreprise des données que vous, étudiant, salarié ou simple curieux, confiez à l'application chaque jour ? L'affaire des « experts » n'est que la partie émergée de l'iceberg. Si la firme a osé voler l'identité de personnalités publiques sans accord, on est en droit de se demander ce qu'elle fait de votre propre style d'écriture et de vos contenus personnels.
Pour comprendre l'évolution récente, il faut revenir sur la chronologie mouvementée de l'entreprise. En juillet 2025, Grammarly a acquis Superhuman, un client email haut de gamme. Peu après, en octobre 2025, l'entité a pris la décision radicale de renommer l'ensemble de la société sous la bannière unique « Superhuman ». Ce changement de nom signalait une mutation de l'ADN de l'entreprise, passant d'un correcteur bienveillant à une suite d'outils d'IA plus intrusive. Ce pivot stratégique a visiblement priorisé la croissance sur la confidentialité, rompant le contrat de confiance tacite qui liait l'utilisateur à l'outil.
Devoirs, emails intimes : vos textes nourrissent-ils leurs futurs modèles ?
La question centrale pour l'utilisateur lambda est celle du droit de regard et de la propriété des données. Ai-je légalement le droit de refuser que mon style d'écriture soit analysé, stocké et réutilisé ? Pour un lycéen qui colle son devoir de philosophie ou ses notes personnelles dans l'application, ou pour un salarié rédigeant un rapport confidentiel, l'implication est majeure. Contrairement à des outils comme Antidote qui traitent les données localement par défaut, la plupart des correcteurs en ligne envoient vos textes sur leurs serveurs pour y appliquer leur traitement.
Une fois ces textes sur les serveurs, que deviennent-ils ? Sont-ils supprimés immédiatement, ou conservés pour « améliorer le service », formulation vague qui cache souvent un entraînement des modèles d'IA ? Si l'entreprise a pu cloner le style de Julia Angwin en analysant ses articles publiés, elle pourrait théoriquement apprendre à imiter votre style en analysant vos emails privés. En utilisant ces outils sans précaution, vous risquez de livrer les clés de votre propre identité numérique à une entreprise dont les intérêts commerciaux peuvent diverger radicalement des vôtres, rappelant que la vigilance reste de mise avec toutes les applications connectées.
Reprendre le contrôle : 5 correcteurs grammaticaux qui respectent votre vie privée
Face à cette prise de conscience, il est heureusement possible de ne pas se sentir désarmé. Le marché francophone regorge d'alternatives sérieuses et respectueuses de la vie privée, qui se concentrent sur leur mission première : vous aider à mieux écrire, sans transformer vos données en produit. Si l'affaire Superhuman vous a poussé à la méfiance, sachez qu'il existe des solutions sûres, souvent développées par des entreprises européennes soumises au RGPD, qui garantissent un niveau de protection bien supérieur à celui des géants de la Tech américaine.
Choisir le bon outil n'est pas seulement une question de confort, c'est un acte de résistance numérique. En favorisant les logiciels qui traitent vos données localement ou qui garantissent une non-utilisation pour l'entraînement de l'IA, vous reprenez le contrôle sur votre production intellectuelle. Voici une sélection des meilleures alternatives actuelles, classées selon leurs profils d'utilisation et leurs engagements en matière de confidentialité, pour écrire l'esprit tranquille.
Antidote et Le Robert Correcteur : le choix de la confidentialité totale
Pour ceux qui cherchent la sécurité absolue, les logiciels de type « bureau » ou « local » sont la meilleure réponse. Antidote, développé par l'éditeur québécois Druide, est probablement le fleuron du marché. À 59,99 € par an, il offre un traitement des données entièrement local par défaut, ce qui garantit une confidentialité totale. Vos textes ne quittent jamais votre ordinateur pour être analysés. Pour la version Web, les serveurs sont situés au Canada, offrant une juridiction protectrice. C'est l'outil le plus complet, avec 14 dictionnaires et 10 guides linguistiques, mais c'est surtout l'un des plus sûrs.

Dans la même veine, Le Robert Correcteur propose une solution idéale pour un usage ponctuel ou à long terme sans abonnement. Vendu aux alentours de 119 € en achat unique, il dispose d'un point fort majeur : un mode hors connexion complet. En activant ce mode, vous garantissez qu'aucun texte ne transite par un serveur distant. C'est la solution absolue pour les étudiants soucieux de la confidentialité de leurs devoirs ou les professionnels traitant des données sensibles. Ces deux outils prouvent qu'il est possible d'allier performance linguistique et respect strict de la vie privée.
LanguageTool, MerciApp et Scribens : les champions du RGPD
Si vous préférez une solution en ligne plus légère, il existe des acteurs européens qui respectent scrupuleusement le cadre du RGPD (Règlement Général sur la Protection des Données). LanguageTool est sans doute le meilleur choix pour les utilisateurs multilingues. Avec une version de base gratuite et une offre Premium à environ 4,92 € par mois, il dispose de serveurs en Allemagne. Sa conformité au RGPD est totale, et une version « on-premise » est même disponible pour les entreprises qui ne veulent voir aucune de leurs données sortir de leur propre infrastructure.
Pour un usage purement francophone et centré sur le marketing, MerciApp est une excellente option. Lancée en 2021, cette approche combine 30 ans de recherche linguistique avec l'IA. Son service gratuit couvre 600 mots par jour, et l'offre Assist est à 12 € par mois. L'engagement de l'entreprise est clair : les données ne sont pas utilisées pour entraîner l'IA. De même, Scribens s'impose comme le correcteur gratuit le plus populaire en France, avec plus de 100 millions de visiteurs en 2024. Bien que la version gratuite soit soutenue par la publicité, l'éditeur assure qu'aucun texte n'est stocké (utilisation de connexion SSL et serveurs Cloudflare). C'est le choix parfait pour une vérification ponctuelle sans s'engager.
Conclusion : Votre style d'écriture n'appartient pas à Superhuman
L'affaire Grammarly-Superhuman ne doit pas être considérée comme un simple incident de parcours dans l'histoire de la technologie. Elle constitue un avertissement sévère sur les dérives possibles de l'intelligence artificielle générative lorsqu'elle est laissée entre les mains d'entreprises qui privilégient le profit aux dépens de l'éthique. De l'usurpation d'identité de personnalités célèbres à l'exploitation potentielle de vos propres écrits, le message est clair : notre identité numérique, et singulièrement notre style d'écriture, est une richesse qui doit être protégée, pas pillée.
La commodité des outils d'IA ne doit jamais se faire au détriment de nos droits fondamentaux. Choisir des outils qui respectent la confidentialité, comme Antidote ou MerciApp, et rester vigilant sur l'usage de nos données, est aujourd'hui une nécessité. Votre plume vous appartient, et ce n'est pas à une machine de décider comment elle peut être utilisée ou monnayée sans votre consentement. Reprendre le contrôle de ses outils d'écriture, c'est aussi protéger l'essence même de sa créativité contre l'appétit insatiable des algorithmes.