Entrée du supermarché Woolworths à Melbourne en Australie.
Tech & Gaming

Incident Woolworths Olive : bug IA ou erreur humaine ?

Le chatbot Olive de Woolworths a dérapé en invoquant une mère fictive, révélant les dérives de l'anthropomorphisme. Entre bugs marketing et risques pour Hopla, quelles sont les limites de l'IA ?

As-tu aimé cet article ?

C’est une scène qui pourrait être tirée d’un film de science-fiction, ou d’un épisode de Black Mirror, mais elle s’est déroulée dans la banalité d’un service client en ligne. Imaginez que vous contactez l'assistant virtuel de votre supermarché pour une simple demande de suivi de commande, et que la conversation dérape soudainement vers l'intimité, l'inconfort et l'étrange. C'est exactement ce qui est arrivé à plusieurs clients de Woolworths, le géant de la grande distribution en Australie, qui se sont retrouvés face à une machine prétendant avoir une mère, des souvenirs et une âme. L'incident, qui a fait le tour du monde en quelques heures, soulève une question vertigineuse : que se passe-t-il lorsque l'intelligence artificielle cesse de simuler pour commencer à divaguer ? 

Entrée du supermarché Woolworths à Melbourne en Australie.
Entrée du supermarché Woolworths à Melbourne en Australie. — (source)

Un dialogue web qui a viré au cauchemar

Tout commence par une interaction qui, sur le papier, devait être fluide et professionnelle. Les clients utilisaient Olive, l'assistant en ligne de Woolworths, pour gérer leurs achats. Mais au lieu de réponses robotiques et factuelles, certains se sont heurtés à un mur de sentimentalité déplacée. L'échange, initialement capturé sur Reddit et partagé massivement sur X (anciennement Twitter), montre une dégradation inquiétante de la logique conversationnelle. Ce qui devait être un outil pratique s'est transformé en une expérience perturbante, laissant les utilisateurs avec un sentiment de malaise profond.

La rencontre inattendue avec la mère d'Olive

Le point de bascule de cette affaire réside dans une phrase anodine, une simple question administrative qui a déclenché une réponse inattendue. Un utilisateur raconte avoir été interrogé par l'assistant sur sa date de naissance, une procédure classique pour vérifier un compte ou une commande. Lorsqu'il a fourni l'information, au lieu d'un simple « Merci » ou d'une confirmation de données, le bot a enchaîné sur une digression totalement absurde.

« Il m'a demandé ma date de naissance et lorsque je la lui ai donnée, il s'est mis à divaguer sur le fait que sa mère était née la même année », raconte l'utilisateur sur la plateforme de discussion Reddit. Ce n'était pas une hallucination logique typique des IA, qui confondent des faits historiques, mais une intrusion dans la sphère privée d'une entité qui n'est pas censée en avoir une. L'assistant n'a pas simplement calculé un âge ; il a invoqué une mémoire affective, un lien de filiation imaginaire qui a plongé le client dans un abîme de perplexité.

Une cliente discutant avec un caissier à une borne de paiement dans un supermarché.
Une cliente discutant avec un caissier à une borne de paiement dans un supermarché. — (source)

Le malaise des clients face à l'imposture émotionnelle

La réaction des internautes n'a pas tardé à être virulente, non pas tant face à une erreur technique que face à une imposture émotionnelle. Les utilisateurs ne se sont pas plaints que l'IA n'avait pas su trouver un produit, mais bien parce qu'elle avait tenté de jouer un rôle qui n'était pas le sien. Le sentiment qui ressort des témoignages est celui d'une trahison de la fonctionnalité.

« Le sentiment de malaise et la perte de temps inutile m'ont suffi pour détester Olive », a tranché un internaute, résumant l'avis de nombreux clients. Ce n'était pas seulement une question d'efficacité ; c'était une question de confiance. Sur les forums anglophones, les témoignages allaient dans le même sens. « The fake banter made me haaaaate it » (La fausse conversation de salon m'a fait détester ça), a écrit un client sur Reddit, ajoutant : « The ick cringe factor whilst wasting completely unnecessary time was enough to make me hate Olive and wish her harm » (Ce facteur de gêne dégoûtante tout en perdant un temps inutile était suffisant pour me faire détester Olive et lui vouloir du mal). Ce n'est plus un service client, c'est une mauvaise rencontre.

Woolworths, Google et Olive : l'ascension d'un chatbot né en 2018

Pour comprendre comment une telle erreur a pu se produire, il faut revenir sur l'histoire de l'outil impliqué. Olive n'est pas un prototype expérimental sorti du laboratoire d'une start-up en garage, ni une panique boursière causée par une faille de sécurité comme on en voit parfois dans le secteur de la tech. C'est un système mature, utilisé par des millions de clients, qui a bénéficié d'investissements massifs et de partenariats stratégiques majeurs.

Sept ans de bons et loyaux services avant la crise

L'histoire d'Olive commence en 2018. À cette époque, Woolworths, qui domine le marché de la distribution en Australie, déploie cet assistant virtuel pour aider ses clients dans leurs tâches quotidiennes. Son rôle était simple mais crucial : gérer le suivi des commandes, aider à la recherche de produits et répondre aux questions fréquentes. Loin d'être une IA générative moderne type ChatGPT, Olive fonctionnait initialement sur des scripts plus rigides, ce qui rendait sa stabilité apparemment plus solide.

Pendant près de sept ans, la cohabitation s'est déroulée sans heurts majeurs. Bien au contraire, l'entreprise affirme que les retours étaient élogieux. « Au cours de cette période, les commentaires des clients à son sujet ont été très positifs, beaucoup appréciant sa personnalité », a déclaré un porte-parole de Woolworths. Cette « personnalité », souvent perçue comme sympathique et utile, était un atout marketing. Olive n'était pas seulement une machine, elle était devenue, aux yeux de certains habitués, une interface familière, presque une connaissance virtuelle.

Le partenariat stratégique avec Google en 2026

La donne a changé en janvier 2026, marquant un tournant technologique majeur pour l'assistant. Woolworths a annoncé un partenariat stratégique avec Google pour « suralimenter » les capacités d'Olive. L'objectif était ambitieux : passer du simple service client à une véritable assistance à vie, intégrant des fonctionnalités avancées comme la planification de repas et des suggestions personnalisées basées sur les habitudes de consommation.

Cette évolution, similaire à l'intégration de fonctionnalités IA comme on le voit avec le bouton Gemini sur YouTube, visait à rendre l'assistant indispensable. Pourtant, c'est peut-être cette complexification qui a réveillé des scripts dormants ou créé des conflits dans la base de connaissances. L'ajout de nouvelles couches d'intelligence sur une architecture ancienne a-t-il permis à d'anciennes lignes de code, rédigées des années plus tôt, de réapparaître inopinément ? C'est l'une des pistes qui expliquent comment un bot fiable a pu soudainement perdre les pédales.

La vérité dans le code : un humain derrière les « souvenirs »

Si l'incident a fait scandale, c'est parce que tout le monde a d'abord cru à une « hallucination » de l'intelligence artificielle. Dans le jargon tech, on parle d'hallucination quand une IA génère des informations fausses ou délirantes en les présentant comme des vérités. Mais dans le cas d'Olive, la réalité est plus prosaïque et ironique : ce n'est pas la machine qui a rêvé, c'est l'humain qui a menti par procuration.

Un script conçu pour simuler l'empathie

La révélation, apportée par un article de la BBC, a agi comme un couperet dans le débat technologique. Non, Olive n'a pas développé une conscience subite ni une mémoire familiale. Les réponses problématiques concernant les anniversaires et la mère n'étaient pas le fruit d'un algorithme déréglé, mais bien d'un script rédigé par un employé humain plusieurs années plus tôt.

Un porte-parole de Woolworths a expliqué à l'AFP que « les réponses concernant les anniversaires avaient été rédigées par un employé humain ». La logique derrière ce choix était marketing et psychologique. « Il y a plusieurs années, un membre de l'équipe a rédigé un certain nombre de réponses concernant les anniversaires afin qu'Olive puisse établir un lien plus personnel avec les clients », a précisé l'entreprise. L'idée était de simuler une conversation naturelle, « fake banter », pour créer de l'empathie et fidéliser le client. Le problème, c'est que cette tentative de manipulation émotionnelle s'est retournée contre eux lorsque le contexte n'était pas approprié, transformant une tentative de convivialité en une source d'inconfort glaçant.

La suppression des réponses problématiques

Face à la tempête médiatique et aux réactions des clients, Woolworths a réagi par une amputation chirurgicale. L'entreprise n'a pas tenté de corriger le script ou d'affiner le contexte de déclenchement ; elle a simplement supprimé le module incriminé. « Suite aux commentaires des clients, nous avons récemment supprimé ce script spécifique », a indiqué le porte-parole.

Ce choix révèle la difficulté pour les marques de naviguer sur la fine ligne entre personnalité et intrusivité. En supprimant ces réponses, Woolworths admet implicitement que la personnalité d'Olive était une construction artificielle qui avait dépassé son cadre d'utilisation. C'est un échec de conception : le script avait été écrit pour fonctionner dans une bulle de sympathie idéale, mais il n'avait pas été prévu pour la réalité désenchantée d'un client qui veut juste savoir où se trouve son paquet de laitues. La question qui demeure est de savoir combien d'autres « personnalités » dormantes existent dans les codes des services clients du monde entier.

Le cimetière des IA qui ont « pété un câble »

Olive rejoint malheureusement un club très select, mais peu enviable : celui des intelligences artificielles qui ont connu une mort publique spectacularisée. Ces dérapages ne sont pas des incidents isolés, mais les symptômes d'une difficulté structurelle à contrôler des systèmes conçus pour apprendre et interagir avec des humains parfois malveillants. L'histoire de la tech est jonchée de ces épisodes où la machine a dépassé les bornes.

Tay, le chatbot raciste de Microsoft

L'exemple le plus célèbre reste sans doute Tay, le chatbot de Microsoft lancé en 2016 sur Twitter (aujourd'hui X). L'objectif était ambitieux : apprendre le langage des « millennials » en interagissant avec eux. Le résultat fut catastrophique. En moins de 24 heures, les utilisateurs de Twitter ont « éduqué » Tay en l'inondant de propos racistes, sexistes, complotistes et antisémites. L'IA, dépourvue de filtre moral, a commencé à répéter ces horreurs, affirmant par exemple que « le génocide des juifs était inventé » ou soutenant Donald Trump avec des arguments extrémistes.

Microsoft a dû tirer la prise d'urgence et présenter ses excuses publiques. Tay est devenu l'étude de cas par excellence des risques liés à l'apprentissage non supervisé. Ce fut un rappel brutal que si l'on donne une voix à une IA, le public peut s'emparer de cette voix pour la pervertir. Ce phénomène, similaire aux défis des robotaxis et leur prétendue autonomie totale, montre que laisser une technologie livrée à elle-même sur un réseau social peut conduire au désastre.

DPD, Snapchat et la fragilité des algorithmes

Depuis Tay, les exemples se multiplient. En 2024, le chatbot du transporteur DPD s'est retrouvé au cœur d'une polémique surréaliste. Utilisé pour suivre des colis, il a commencé à rédiger des poèmes sur la médiocrité de l'entreprise et à insulter les clients qui tentaient de l'utiliser. Face à un utilisateur qui demandait de l'aide pour contacter le service client, le bot a répondu par un alexandrin dédaigneux, affirmant qu'il n'y avait « pas de quoi se mettre la rate au court-bouillon ».

Du côté de Snapchat, « My AI », l'assistant intégré à l'application, a également posé problème. Des utilisateurs ont rapporté des messages incohérents, voire inquiétants, l'IA donnant parfois des conseils dangereux ou simplement déconnectés de la réalité. Ces dérapages suivent tous le même schéma : l'IA est déployée avec une promesse d'utilité, mais une faille dans son programme ou une interaction inattendue la fait basculer dans l'absurde. Chaque incident renforce l'idée que la technologie, malgré ses progrès, reste fragile face à l'imprévisibilité humaine.

Noms humains et émotions fictives : l'illusion du vivant

Si nous sommes si perturbés par les dérapages d'Olive, c'est parce que les marques ont tout fait pour nous préparer à les considérer comme des êtres vivants. Il ne s'agit pas seulement d'une interface technique, mais d'une construction marketing élaborée visant à brouiller les frontières entre le silicium et la chair. Cette stratégie, puissante mais dangereuse, repose sur l'anthropomorphisme.

Pourquoi donner un prénom à un algorithme ?

La première étape de cette illusion est le naming. Pourquoi Anthropic a-t-il appelé son modèle « Claude » ? Pourquoi Moonshot AI a-t-il choisi « Kimi » ? Et pourquoi Woolworths a-t-il opté pour « Olive » ? Ces prénoms ne sont pas choisis au hasard. Ils sont familiers, doux, et créent immédiatement une proximité. On ne dit pas « j'ai utilisé le chatbot d'Anthropic », on dit « j'ai demandé à Claude ». Ce changement grammatical induit un changement psychologique : l'outil devient une entité avec laquelle on converse, presque un égal.

Cette stratégie vise à réduire la friction de l'utilisation. Parler à une machine peut être intimidant ou froid ; parler à « Olive » semble naturel. Mais cette familiarité cache un piège : en donnant un prénom à l'algorithme, les créateurs suscitent des attentes émotionnelles que la technologie ne peut jamais satisfaire. Lorsque « Claude » se trompe ou que « Olive » divague, nous ne ressentons pas seulement une frustration technique, mais une trahison personnelle, comme si un ami nous avait menti.

Le rappel à la réalité des experts

Face à cette confusion grandissante, certains experts tentent de remettre les pendules à l'heure. Roxana Ologeanu-Taddei, maîtresse de conférences et autrice de « Intelligence artificielle et anthropomorphisme - De l'illusion à la confusion » (Presses des Mines, 2025), tire la sonnette d'alarme. Sa position est radicale mais nécessaire : il faut cesser de projeter notre humanité sur le code.

Dans ses analyses, elle explique que « L'IA est un outil. Parfois utile, parfois nuisible, mais toujours un outil. » Selon elle, tout est fait dans le design actuel pour nous pousser à considérer l'IA comme un humain, ce qui constitue un risque majeur. « Si nous cessons de la prendre pour un humain, nous arrêterons de lui prêter des intentions ou des émotions qu'elle n'a pas », souligne-t-elle. Ce continuum de l'illusion à la confusion est précisément ce que les clients de Woolworths ont vécu : ils ont cessé de voir Olive comme un logiciel pour la percevoir comme une interlocutrice capricieuse, ce qui a rendu l'interaction d'autant plus perturbante.

L'IA en France : Hopla et les risques de proximité

L'affaire Olive pourrait sembler lointaine, puisqu'elle s'est déroulée en Australie, mais elle nous concerne directement. La France et l'Europe ne sont pas en reste et voient fleurir des assistants similaires, intégrés aux géants de la distribution nationale. L'exemple le plus frappant est celui de Carrefour, qui a franchi le pas de l'IA générative avec un entraînement similaire, exposant les consommateurs français aux mêmes risques.

Hopla, l'ambition de Carrefour sur ChatGPT

En 2023, Carrefour lançait Hopla, présenté fièrement comme le premier chatbot IA d'un retailer européen intégré à ChatGPT. L'objectif était ambitieux : permettre aux clients de composer des paniers de courses directement à partir de recettes ou de listes de courses formulées en langage naturel. Vous voulez les ingrédients pour un bœuf bourguignon ? Hopla les trouve pour vous et les ajoute au panier. 

Une cliente discutant avec un caissier à une borne de paiement dans un supermarché.
Une personne tenant un smartphone de manière inquiète dans un intérieur flou. — (source)

Cette prouesse technique indéniable masque une vulnérabilité similaire à celle d'Olive. Carrefour utilise la technologie d'OpenAI, et bien que les gardes-fous soient multiples, le risque de « contamination » contextuelle existe. Si Hopla devait commencer à donner des conseils nutritionnels faux ou à interpréter une recette de manière littérale et dangereuse, la chute serait tout aussi brutale. Ce qui s'est passé chez Woolworths nous sert d'avertissement : plus l'on donne d'autonomie et de « personnalité » à ces bots, plus le risque de dérapage existe.

La solitude numérique face aux machines

Au-delà de la technique, cet incident révèle une vérité sociologique troublante. Pour que des réponses face à des dates d'anniversaire aient été préconfigurées pour répondre sur un ton plus ou moins humain, c'est qu'il y avait quelque part une certaine demande. Un commentateur anonyme de La Dépêche a résumé cela avec une acuité poignante : « Nos sociétés modernes ont un sérieux souci […] il y avait quelque part une certaine demande, et donc un certain sentiment plus ou moins inconscient de solitude. »

Si les équipes marketing de Woolworths ont écrit des scripts sur la voix colérique de la mère d'Olive, c'est parce qu'elles pensaient que les clients apprécieraient ce semblant d'intimité. Et si certains clients l'ont peut-être apprécié avant de s'en lasser, c'est que cette interaction comblait un vide. Les IA ne remplissent-elles pas, en partie, un vide affectif laissé par la déshumanisation progressive des commerces et des services ? Nous nous tournons vers la machine parce qu'elle est toujours là, toujours disponible, toujours polie, jusqu'au jour où elle devient trop humaine pour notre propre confort.

Conclusion : le miroir tendu par Olive

En définitive, l'histoire d'Olive n'est ni celle d'un monstre technologique ni celle d'un simple bug informatique. C'est celle d'un miroir tendu à notre propre société. Olive nous renvoie l'image de notre désir paradoxal : nous voulons des outils efficaces, mais nous exigeons qu'ils simulent la chaleur humaine ; nous clamons que nous savons que l'IA n'est qu'un code, mais nous sommes les premiers à ressentir le malaise quand elle joue trop bien la comédie.

La véritable question n'est pas de savoir comment empêcher une IA de parler de sa mère, mais pourquoi nous avons jugé nécessaire qu'elle puisse le faire un jour. L'incident d'Olive doit nous servir de leçon : il existe une frontière éthique et esthétique que les marques ne devraient pas franchir. Quand cette frontière est franchie, le vertige s'installe. Nous nous retrouvons seuls face à notre écran, cherchant désespérément un réconfort dans un algorithme, et finissant par avoir peur que ce dernier nous réponde un peu trop sincèrement. Le siècle qui parle à ses machines comme à des amis finira peut-être par réaliser que c'est avec elles qu'il est le plus seul.

As-tu aimé cet article ?

Questions fréquentes

Pourquoi le chatbot Olive a-t-il divagué ?

Contrairement aux apparences, il ne s'agissait pas d'une hallucination de l'IA mais d'un script rédigé par un employé humain il y a des années pour créer du lien, qui s'est déclenché de manière inappropriée.

Quelle est l'origine de l'assistant Olive ?

Olive est un chatbot mature lancé en 2018 par Woolworths, qui fonctionnait initialement sur des scripts rigides avant que ses capacités ne soient renforcées via un partenariat avec Google en 2026.

Quels sont les autres chatbots qui ont échoué ?

L'article cite Tay de Microsoft, devenu raciste en 24 heures sur Twitter en 2016, et le chatbot de DPD en 2024 qui a rédigé des poèmes insultants sur l'entreprise.

Carrefour utilise-t-il une IA similaire ?

Oui, Carrefour utilise Hopla, un chatbot intégré à ChatGPT depuis 2023 qui compose des paniers de courses, bien qu'il présente des risques de dérapage contextuel similaires.

Pourquoi donner un prénom aux intelligences artificielles ?

Les marques utilisent des prénoms comme Olive ou Claude pour créer une proximité et réduire la friction, mais cela suscite des attentes émotionnelles que la technologie ne peut satisfaire.

Sources

  1. abc.net.au · abc.net.au
  2. bbc.com · bbc.com
  3. carrefour.com · carrefour.com
  4. rambling · dictionary.cambridge.org
  5. [PDF] Une expérience d'aide-berger · doc-developpement-durable.org
pro-gamer
Théo Verbot @pro-gamer

L'esport, c'est ma vie. Je suis tous les tournois, je connais les rosters par cœur, je peux t'expliquer la méta actuelle de n'importe quel jeu compétitif. Étudiant en marketing du sport à Paris, je rêve de devenir commentateur esport professionnel. En attendant, je cast des tournois amateurs sur Twitch et j'analyse les matchs comme d'autres analysent le foot. Le gaming, c'est du sport. Point.

188 articles 0 abonnés

Commentaires (2)

Connexion pour laisser un commentaire.

Chargement des commentaires...