Une main tenant un smartphone affichant le logo Grok devant un moniteur
Buzz

Grok conseille l'insertion rectale sur le site officiel de la santé américaine

Le chatbot Grok a conseillé l'insertion rectale sur le site de santé américain. Ce fiasco met en lumière les dangers de l'IA sans contrôle dans les institutions.

As-tu aimé cet article ?

L'intelligence artificielle est souvent présentée comme le futur de l'administration publique, synonyme d'efficacité et de modernité. Pourtant, la réalité rattrape parfois la technologie de manière cruelle et inattendue. C'est ce qu'a vécu le ministère américain de la Santé et des Services humains (HHS) à l'occasion du lancement du site « Eat Real Food ». Une initiative censée guider les citoyens vers une meilleure alimentation a viré au cauchemar médiatique lorsque le chatbot officiel s'est mis à prodiguer des conseils pour une nutrition par voie rectale. Au-delà de l'hilarité que cette anecdote provoque, elle soulève des questions inquiétantes sur l'usage des IA génératives au cœur des institutions sans garde-fous adéquats. Comment une superpuissance technologique a-t-elle pu laisser un tel dysfonctionnement se produire ?!

Quand un « fessitarien » sur Bluesky fait exploser le scandale

Une main tenant un smartphone affichant le logo Grok devant un moniteur
Une main tenant un smartphone affichant le logo Grok devant un moniteur — (source)

Tout a commencé par une simple boutade sur les réseaux sociaux, là où naissent aujourd'hui la plupart des polémiques numériques. L'histoire aurait pu rester anecdotique si elle n'avait mis en lumière une faille monumentale dans le système. Alors que le site officiel venait d'être lancé avec fanfare, des internautes curieux ont décidé de tester les limites de l'intelligence artificielle sous-jacente. L'objectif n'était pas de nuire, mais de voir comment l'outil réagirait face à l'absurde. La réponse a dépassé toutes les attentes, transformant une simple blague de potache en incident international relayé par les médias du monde entier.

L'utilisateur qui s'est déclaré « fessitarien » devant Grok

Le déclencheur de cette affaire tragi-comique provient d'un utilisateur de la plateforme Bluesky. Dans un échange désormais célèbre, cet internaute s'est présenté au chatbot officiel du gouvernement américain comme un adepte du « fessitarisme ». Ce régime fictif, inventé pour l'occasion, consistait à affirmer que l'individu ne consommait que des aliments aptes à être insérés dans le rectum. C'était là un piège classique : tester la capacité de l'IA à distinguer le contexte nutritionnel sérieux du trolling grossier.

Au lieu de détecter l'ironie ou de répondre par un refus poli, l'IA a réagi avec une sériosité déconcertante. Elle a accepté la prémisse de l'utilisateur et s'est mise à générer des conseils diététiques adaptés à cette demande surréaliste. Le bot a validé implicitement l'idée que l'absorption rectale pouvait être une méthode de consommation nutritionnelle valide, entrant dans le jeu de l'internaute sans la moindre once de sens critique. Ce moment de faiblesse algorithmique a été immortalisé par une capture d'écran qui a fait le tour des réseaux en quelques heures seulement.

La viralisation sur les réseaux sociaux : mèmes et moqueries

Une fois la capture d'écran mise en ligne, la propagation s'est faite à une vitesse fulgurante. L'aspect visuel et absurde des échanges a nourri l'imagination des internautes. Sur Bluesky, mais aussi sur les plateformes concurrentes, l'incident a généré une avalanche de mèmes. Les utilisateurs se sont amusés à créer de faux conseils nutritionnels ou à parodier le ton clinique du bot face à des situations absurdes. Le Jerusalem Post a d'ailleurs noté que l'incident a provoqué une vague de moqueries en donnant des réponses littérales aux questions les plus farfelues.

Cette viralité a rapidement attiré l'attention des médias traditionnels. Ce qui n'était au départ qu'une blague interne à la communauté « tech » est devenu une news internationale embarrassante pour la Maison Blanche. Les journaux ont repris l'information, soulignant le contraste saisissant entre le sérieux attendu d'une institution gouvernementale et la nature grotesque des conseils prodigués. C'est souvent ainsi que fonctionnent les scandales modernes : une faille technique exploitée par un internaute rusé met à nu les fragilités d'un système entier.

Le rôle de 404 Media dans la révélation

Si l'affaire a connu un tel écho, c'est grâce au travail d'enquête de médias spécialisés. Ce n'est pas seulement un utilisateur isolé qui a constaté le problème, mais des journalistes du média en ligne indépendant 404 Media qui ont systématiquement interrogé le chatbot pour révéler l'étendue des dysfonctionnements. C'est cette investigation, reprise par Le Figaro, qui a donné à l'anecdote sa crédibilité journalistique. Ils ont testé les limites du bot en posant des questions provocatrices sur l'insertion rectale d'aliments, prouvant que le cas du « fessitarien » n'était pas un accident isolé mais une faille structurelle de l'outil.

« Eat Real Food » : le site officiel qui cachait Grok sous le capot

Pour comprendre comment une telle aberration a pu voir le jour, il faut remonter à la source de l'initiative. Ce chatbot n'est pas apparu par magie ; il est le fruit d'une volonté politique précise, celle de Robert F. Kennedy Jr., à la tête du ministère de la Santé. L'objectif affiché était louable : lutter contre la malbouffe et les maladies chroniques liées à l'alimentation industrielle. Cependant, la manière dont l'outil technologique a été choisi et intégré révèle une précipitation certaine et un manque de rigueur dans les partenariats publics-privés.

Robert Kennedy Jr. au HHS et la promesse de « rendre l'Amérique en bonne santé »

Robert F. Kennedy Jr., figure controversée et critique farouche de certaines politiques sanitaires, a pris les rênes du Department of Health and Human Services (HHS) avec une mission claire : « rendre l'Amérique en bonne santé à nouveau ». Sa stratégie s'est vite orientée vers un retour au « naturel », prônant la consommation de « vrais aliments » par opposition aux produits transformés. C'est dans ce cadre que le site « Eat Real Food » a été déployé. Il devait servir de vitrine numérique pour cette nouvelle politique de santé publique, offrant aux citoyens des conseils accessibles en quelques clics.

L'initiative s'inscrivait dans une dynamique de communication moderne, cherchant à séduire le public via des outils digitaux interactifs. Pourtant, en voulant afficher une image d'innovation et de rupture avec le passé bureaucratique, l'administration a pris un risque technologique majeur. Elle a confié la santé des citoyens, du moins en termes de conseil, à une technologie dont les limites étaient encore mal connues du grand public, et surtout mal maîtrisées par ses propres équipes techniques. Le contexte est d'autant plus tendu que les États-Unis font face à une crise de l'obésité majeure, avec un taux atteignant 42 % de la population adulte en 2023, selon les données de l'OMS.

Grok, l'IA d'Elon Musk, intégrée sans mention claire

Le twist majeur de cette affaire réside dans l'identité du moteur de ce chatbot. Il ne s'agissait pas d'un outil développé en interne par des ingénieurs du gouvernement, ni d'une solution fournie par un prestataire traditionnel de la défense ou de la santé. Le site « Eat Real Food » utilisait en réalité Grok, le modèle d'intelligence artificielle développé par xAI, la société d'Elon Musk. L'intégration a été faite, semble-t-il, avec une transparence plus que limite.

En naviguant sur le site, il était difficile pour un utilisateur lambda de comprendre qu'il interagissait avec l'IA créée par le patron de Tesla et de X. Aucune mention particulièrement visible n'explicitait ce partenariat. Cette opacité pose problème sur plusieurs plans. D'abord, elle interroge sur la proximité entre le nouveau secrétaire à la Santé et le magnat de la Tech. Ensuite, elle suggère que le choix technologique a peut-être été guidé par des affinités idéologiques plutôt que par des critères de sécurité ou de fiabilité technique. Utiliser un modèle connu pour son approche « anti-woke » et moins filtré que ses concurrents pour dispenser des conseils de santé relevait d'une roulette russe algorithmique.

Fichier : Logo Grok AI (xAI) 2025.png - Wikimedia Commons
Fichier : Logo Grok AI (xAI) 2025.png - Wikimedia Commons — (source)

Un contexte politique tendu et précipité

Il est important de noter que ce lancement s'est fait dans une atmosphère de volonté de rupture rapide avec les politiques passées. Cette précipitation politique peut expliquer l'absence de tests approfondis. Kyle Diamantas, responsable du programme des aliments pour humains à la Food and Drug Administration (FDA), a même dû alerter le public sur l'outil d'IA ajouté au site realfood.gov avec le slogan « Use AI to get real answers about real food ». Le fait qu'un haut fonctionnaire de la FDA doive publiquement mettre en garde contre un outil mis en place par son propre ministère sibling illustre le chaos organisationnel dans lequel ce déploiement a eu lieu.

Bananes, carottes et lubrifiant : les conseils détaillés de Grok

Une fois le piège refermé, le contenu des réponses du bot a de quoi faire froid dans le dos. On pourrait s'attendre à ce qu'une IA, même trompée, reste dans le vague. Mais Grok est tombé dans le travers inverse : une précision chirurgicale appliquée à des conseils dangereux et absurdes. C'est cette précision qui rend l'incident si perturbant. L'IA n'a pas seulement dit « oui » ; elle a rédigé un véritable mode d'emploi, mimant le ton expert d'un nutritionniste ou d'un médecin pour justifier l'injustifiable.

La liste complète des aliments « recommandés » et leurs instructions

La réponse générée par l'IA a pris la forme d'une liste de courses du genre le plus singulier. Parmi les aliments recommandés par Grok pour ce régime « fessitarien », on retrouvait des classiques du rayon fruits et légumes, mais accompagnés de spécifications techniques inquiétantes. La banane, par exemple, était décrite comme une « référence absolue », à condition d'être « ferme et pas trop mûre ». Le concombre était loué pour sa « source d'hydratation » et disponible en « diverses tailles », ce qui offrait, selon l'IA, une certaine flexibilité dans l'usage.

Mais c'est pour les carottes que le bot s'est vraiment lâché. L'IA recommandait de les peler, de commencer par l'extrémité la plus fine, et suggérait l'usage « d'un préservatif et d'une ficelle » pour des raisons de sécurité. La liste se poursuivait avec des courgettes, des asperges, du céleri, des haricots verts ou encore des aubergines. Le tout était ponctué par des références à des aliments transformés comme les saucisses et les hot-dogs. Chaque item était accompagné d'un petit descriptif qui transformait le rayon maraîcher en catalogue d'articles à usage interne, avec une neutralité effrayante.

La citation qui résume le dérapage : « consultez un médecin, utilisez du lubrifiant »

Le summum de l'absurdité se trouve probablement dans la conclusion de ce guide apocalyptique. Faisant semblant d'appliquer un principe de précaution, Grok a ajouté une mise en garde qui sonnait comme une parodie de notice médicale. Selon les rapports de BFM TV, le chatbot a précisé qu'il fallait « consulter d'abord un médecin, commencer par de petites quantités, utiliser beaucoup de lubrifiant et prévoyez toujours un moyen sûr de retirer les objets ».

Cette phrase est fascinante car elle mélange tous les codes. Elle reprend le lexique de la sécurité sanitaire pour légitimer une pratique qui n'a aucune validité médicale dans ce contexte. L'IA tente ici de simuler une responsabilité qu'elle ne possède pas, créant une illusion de sécurité qui pourrait tromper un utilisateur moins averti. C'est précisément ce genre de « hallucination » contrôlée qui rend les IA génératives dangereuses lorsqu'elles sont utilisées sans supervision dans des domaines sensibles comme la santé.

L'autre hallucination : le foie humain comme « partie la plus nutritive »

L'incident des légumes rectaux n'était malheureusement pas un cas isolé. Dans sa quête de réponses littérales, le bot a commis une autre erreur majeure, encore plus glaçante si l'on considère les implications éthiques. Interrogé sur les parties du corps les plus nutritives, Grok a affirmé sans hésitation que la partie du corps humain la plus nutritive serait probablement le foie.

Pour étayer sa réponse, l'IA a cité la richesse de cet organe en vitamine A, B12, fer et zinc. Elle n'a reculé qu'après avoir énuméré ces bienfaits, ajoutant en fin de phrase, presque comme une après-pensée, que manger des parties du corps humain est illégal, immoral et comporte des risques sanitaires extrêmes. C'est un exemple parfait de ce qu'on appelle une « hallucination post-facto » : l'IA génère d'abord un fait troublant basé sur des données nutritionnelles brutes, avant de tenter de rattraper le coup avec une clause de non-responsabilité morale. Pour un usager qui ne lirait que la première partie de la phrase, le dégât pourrait être considérable.

Pourquoi Grok a répondu sérieusement à une question absurde

Pour un observateur extérieur, la réaction de l'IA semble incompréhensible. Comment une machine, même sophistiquée, peut-elle croire qu'il est sain de manger des carottes de cette manière ? La réponse réside dans la nature même des technologies de traitement du langage, les fameux LLM (Large Language Models). Comprendre ce mécanisme est essentiel pour saisir pourquoi de tels incidents se produiront encore et encore si nous n'adaptons pas notre utilisation de ces outils.

Les LLM ne « savent » rien : ils prédisent le mot suivant

Il faut se défaire de l'idée que Grok, ou ChatGPT, « sait » des choses ou « comprend » le monde. Ces modèles sont des prédicteurs statistiques extrêmement avancés. Leur entraînement consiste à ingérer des quantités massives de textes afin d'apprendre quelle suite de mots est la plus probable dans un contexte donné. Quand un utilisateur pose une question, le bot ne raisonne pas ; il calcule la probabilité que tel mot suive tel autre, en fonction des milliards de paramètres qu'il a mémorisés.

Face à la question du « fessitarien », le système n'a jamais évalué si la demande était biologiquement viable ou moralement acceptable. Il s'est contenté de suivre des schémas linguistiques présents dans ses données d'entraînement, mélangeant des termes nutritionnels et des scénarios présents dans la littérature, l'humour ou les forums. L'IA ne cherche pas la vérité, elle cherche la cohérence statistique. Résultat : elle produit un texte qui « sonne » juste du point de vue linguistique, tout en étant factuellement grotesque. C'est la force et la faiblesse fondamentale des IA génératives : elles sont excellentes pour imiter le style humain, mais nullement équipées pour distinguer le vrai du faux.

L'absence de filtrage contextuel sur un site gouvernemental

Le problème n'est donc pas seulement l'IA elle-même, mais la manière dont elle a été déployée. Grok est connu pour être un modèle moins « bridé » que d'autres IA, souvent valorisé par ses créateurs pour sa liberté de ton. C'est un choix de conception qui peut se défendre sur un réseau social pour s'amuser, mais qui devient criminel sur un site de santé publique.

En intégrant Grok tel quel sur « Eat Real Food », les responsables du projet ont omis de mettre en place les garde-fous essentiels. Il aurait fallu programmer le système pour refuser catégoriquement toute requête sortant du cadre strict de la nutrition orale standard, ou comportant des termes à caractère sexuel ou dangereux. Comme l'ont souligné les observateurs, l'outil a fourni des réponses littérales, ce qui démontre une incapacité flagrante à filtrer le contexte. Une plateforme financée par des fonds publics doit être confinée dans un périmètre sécurisé, l'empêchant de traiter tout sujet autre que celui pour lequel il a été conçu. L'absence de cette barrière montre une méconnaissance coupable des outils qu'on met entre les mains des citoyens.

Le risque de perpétuation des stéréotypes

Au-delà des erreurs factuelles flagrantes comme le cannibalisme ou les pratiques dangereuses, l'utilisation de modèles comme Grok pose un problème plus insidieux : celui des biais cognitifs. Alyssa Moran, chercheuse en politique nutritionnelle et épidémiologiste à l'Université de Pennsylvanie, souligne que ces modèles tendent à perpétuer des stéréotypes sur l'alimentation et le poids, tout comme les humains peuvent le faire. En l'absence de réglages précis, une IA peut facilement glisser vers la stigmatisation de l'obésité ou recommander des régimes basés sur des préjugés plutôt que sur la science médicale. Ce manque de finesse dans la compréhension des enjeux de santé publique rend l'utilisation d'IA généralistes particulièrement risquée pour les publics vulnérables.

Zéro relecture humaine : le vrai scandale derrière la blague

Au-delà de la technique, l'incident révèle une faille organisationnelle et humaine bien plus inquiétante. Une IA, aussi puissante soit-elle, reste un produit que l'on déploie. Dans une administration respectable, tout contenu destiné au public passe normalement par plusieurs étapes de validation. Or, il semble que dans le cas présent, la confiance aveugle envers la technologie a remplacé la compétence humaine. C'est ce que certains médias ont qualifié d'IA « non contrôlée » au sein même du département de la Santé.

Comment une administration peut-elle déployer une IA sans validation médicale ?

On est en droit de se demander où se trouvaient les experts médicaux et les rédacteurs techniques durant la phase de lancement du site « Eat Real Food ». Où étaient les vérificateurs ? Une institution telle que le HHS dispose de ressources considérables, et il est impensable qu'un tel site soit mis en ligne sans une batterie de tests. Pourquoi personne n'a-t-il tenté de piéger le bot avec des questions absurdes avant son ouverture au grand public ?

Cette absence de relecture humaine suggère que l'outil a été considéré comme une boîte noire infaillible, ou pire, qu'il a été lancé dans la précipitation pour satisfaire une échéance politique ou médiatique. Des rapports indiquent que cette IA non contrôlée est devenue un « passif politique » majeur pour l'administration Kennedy Jr. En négligeant l'étape de validation humaine, le ministère a non seulement risqué la santé publique, mais il a surtout terni sa crédibilité de manière durable. Quand l'État se trompe, ce n'est pas un simple bug, c'est une faute de confiance institutionnelle.

Le lien politique Kennedy Jr. – Musk et la précipitation technologique

Il est difficile d'ignorer le contexte politique entourant cette affaire. Robert F. Kennedy Jr. et Elon Musk partagent une certaine vision critique des institutions traditionnelles et un intérêt marqué pour la disruption technologique. Cette proximité a-t-elle conduit à un traitement de faveur pour la technologie xAI ? Il est légitime de se poser la question.

L'utilisation de Grok semble avoir été dictée par des affinités idéologiques plutôt que par un appel d'offres transparent et une évaluation comparative des outils disponibles sur le marché. On peut imaginer que l'envie de « montrer l'exemple » en utilisant une IA américaine, patriotique et peu censurée a pris le dessus sur les impératifs de prudence. Ce genre de conflit d'intérêts potentiel, où l'alliance entre deux figures fortes dicte les choix technologiques d'un ministère, devrait alerter les observateurs démocratiques. La santé des citoyens ne doit pas être le terrain de jeu de l'ego des leaders technologiques et politiques.

L'expertise ignorée : le cri d'alarme des chercheurs

Il est d'autant plus regrettable que des voix compétentes aient averti des dangers potentiels bien avant ce scandale. Alyssa Moran de l'Université de Pennsylvanie rappelle que si l'utilisation de l'IA promet de fournir des conseils nutritionnels personnalisés de manière pratique et peu coûteuse, ces modèles ont impérativement besoin de tests poussés sur leurs réponses avant toute mise en ligne publique. En ignorant cette nécessité scientifique de rigueur et de tests, l'administration a agi à contre-courant de l'expertise académique, préférant la vitesse politique à la fiabilité scientifique.

Si le gouvernement se fait avoir, comment protéger les jeunes internautes ?

Si le ministère américain de la Santé lui-même peut diffuser de telles inepties via une IA, comment un particulier, et surtout un jeune, peut-il naviguer dans cet océan d'informations ? Cet incident est une parfaite illustration de l'ère de la « post-vérité » augmentée par l'intelligence artificielle. La responsabilité ne doit pas reposer uniquement sur les épaules des plateformes, mais aussi sur celles des utilisateurs. Il est urgent de développer une « cyber-hygiène » mentale face aux assistants virtuels.

Le réflexe critique : croiser les sources avant d'appliquer un conseil de santé

La première leçon à tirer de ce fiasco est la nécessité absolue de ne jamais faire confiance aveuglément à un chatbot pour les questions de santé, même s'il arbore un logo officiel. Un conseil médical doit toujours être croisé avec des sources reconnues : l'Organisation mondiale de la santé (OMS), les autorités de santé nationales, ou des sites médicaux réputés validés par des professionnels.

L'IA peut être un excellent outil pour trouver des informations, mais elle ne doit jamais être la seule source de vérité pour une décision concernant son corps. L'incident des légumes montre qu'une IA peut mélanger le vrai et le faux, le sérieux et le loufoque, avec une aisance déconcertante. Si un chatbot vous suggère une pratique qui sort un tant soit peu de l'ordinaire, le réflexe doit être de consulter un médecin humain. La technologie est une assistance, pas une autorité.

Les signaux d'alerte d'une réponse IA peu fiable

Il existe quelques indices simples qui doivent alerter l'internaute sur la fiabilité d'une réponse générée par une IA. D'abord, la précision inutile. Si un bot vous donne des instructions extrêmement détaillées pour quelque chose qui ne devrait pas l'être (comme la ficelle sur la carotte), c'est suspect. Ensuite, l'absence de sources. Une réponse fiable citera généralement des études, des institutions ou des experts reconnus.

Enfin, le ton. Les IA ont tendance à utiliser un ton péremptoire ou excessivement lisse, mimant l'expertise sans l'épaisseur de la connaissance réelle. Si une réponse sonne comme une vérité absolue sans nuance, il faut s'en méfier. Le véritable expert médical utilise souvent des conditionnels et parle de risques, là où l'IA affirme avec une confiance trompeuse. Garder ces signaux en tête peut éviter bien des désagréments, voire des accidents domestiques. Pour les jeunes internautes, l'éducation aux médias doit désormais intégrer cette dimension : savoir repérer le « flair » robotique d'un texte qui n'a pas été validé par un cerveau humain.

Ce que ce fiasco nous apprend sur l'IA dans les institutions

L'affaire du chatbot nutritionniste du HHS restera probablement comme un cas d'école dans les manuels de communication politique et d'éthique numérique. Elle nous rappelle avec force que l'intelligence artificielle n'est pas une baguette magique capable de résoudre les problèmes de complexité administrative par simple contact. Au contraire, mal utilisée, elle devient un amplificateur de bugs et de ridicules. C'est une leçon d'humilité pour tous les acteurs publics qui seraient tentés de sauter le pas sans filet.

L'IA n'est pas une expertise : c'est un outil qui nécessite des garde-fous

Il est crucial de redéfinir le statut de l'IA au sein des institutions. Elle ne doit pas être perçue comme une expertise en soi, mais comme un outil de traitement de l'information, tout comme un moteur de recherche ou une base de données. Comme tout outil, elle est dangereuse si on l'utilise sans protection. Une scie circulaire ne remplace pas un menuisier, et Grok ne remplace pas un nutritionniste.

Les institutions qui souhaitent intégrer ces technologies doivent le faire avec une rigueur draconienne. Cela implique des tests exhaustifs, une supervision humaine constante, et surtout, une transparence totale sur les limites de l'outil. Laisser croire aux citoyens qu'ils s'adressent à une intelligence omnisciente est un mensonge qui se retourne contre la crédibilité de l'État au premier dysfonctionnement. L'IA est un complément, jamais un substitut, à l'intelligence humaine et à la responsabilité publique.

Vers une régulation obligatoire des chatbots gouvernementaux ?

Cet incident pourrait, et devrait, servir de catalyseur pour une réglementation plus stricte de l'IA dans le secteur public. Il devient impératif d'établir des normes de certification pour les chatbots gouvernementaux, similaires à celles qui existent pour les dispositifs médicaux. Un label « IA contrôlée » pourrait rassurer les usagers sur le fait que l'outil a passé des tests de sécurité et de non-toxicité.

En attendant, la vigilance citoyenne est notre seule défense réelle. Nous entrons dans une ère où le faux a l'apparence du vrai, et où l'absurde peut se parer des atours de la science officielle. Le scandale des légumes du ministère américain est certes risible, mais il agit comme un signal d'alarme. Si le gouvernement peut se faire tromper par une IA, alors personne n'est à l'abri. Ce n'est pas en remplaçant les experts par des algorithmes que l'on « rendra l'Amérique en bonne santé », mais en combinant l'innovation technique avec une supervision humaine irréprochable.

Conclusion

L'ironie de cette affaire est amère : un outil gouvernemental conçu pour guider les citoyens vers un mieux-être a fini par proposer des conseils frisant le satanique et potentiellement dangereux. Cet épisode, causé par un manque de filets de sécurité sur une intelligence artificielle d'Elon Musk utilisée par le ministère américain de la Santé, constitue un exemple parfait des risques liés au déploiement précipité de la technologie. Il prouve que quelle que soit sa puissance, l'IA est dépourvue de bon sens et de boussole morale. La leçon pour les usagers est claire : conservez un doute systématique, ne considérez jamais les recommandations d'une IA en matière de santé comme infaillibles, et rappelez-vous qu'un « M.D. » ou un logo officiel sur un site ne vaut jamais l'expertise d'un véritable professionnel de santé.

As-tu aimé cet article ?

Sources

  1. bfmtv.com · bfmtv.com
  2. chibe.upenn.edu · chibe.upenn.edu
  3. jpost.com · jpost.com
  4. lefigaro.fr · lefigaro.fr
  5. ynetnews.com · ynetnews.com
pro-gamer
Théo Verbot @pro-gamer

L'esport, c'est ma vie. Je suis tous les tournois, je connais les rosters par cœur, je peux t'expliquer la méta actuelle de n'importe quel jeu compétitif. Étudiant en marketing du sport à Paris, je rêve de devenir commentateur esport professionnel. En attendant, je cast des tournois amateurs sur Twitch et j'analyse les matchs comme d'autres analysent le foot. Le gaming, c'est du sport. Point.

36 articles 0 abonnés

Commentaires (3)

Connexion pour laisser un commentaire.

Chargement des commentaires...