Septembre 2025, le monde de la tech retenait son souffle. L'application Sora, portée par la promesse d'une créativité sans limites grâce à l'intelligence artificielle, explosait littéralement les compteurs de téléchargements pour s'installer à la première place de l'App Store en quelques jours seulement. Pourtant, ce mercredi 25 mars 2026, l'ambiance est radicalement différente. Sur le réseau X, l'équipe d'OpenAI a posté un message bref et cinglant : « Nous disons au revoir à l'application Sora. »

Ce contraste brutal entre l'engouement massif et l'arrêt brutal dessine les contours d'une véritable autopsie technologique. Sora n'était pas simplement un outil de montage vidéo ou un générateur d'images sophistiqué ; c'était un réseau social complet, un TikTok paradoxal où chaque vidéo était entièrement générée par le modèle Sora 2, sans aucune intervention humaine traditionnelle. Ce que l'on présente aujourd'hui comme un simple recentrage stratégique cache en réalité une histoire bien plus sombre, celle d'une créature échappant à tout contrôle. Comme un Frankenstein moderne, l'IA conçue pour émerveiller le monde s'est rapidement retournée contre ses créateurs, révélant une toxicité structurelle qu'aucun algorithme de modération n'a réussi à contenir.
Le tweet qui a tout arrêté
La nouvelle est tombée comme un couperet, sans les longs billets de blog habituels qui accompagnent généralement les phases de « sunset » technologiques. L'équipe Sora a publié un message sur X qui, par sa diplomatie corporative, n'a fait que souligner la brutalité de la décision. Le texte, publié ce 25 mars 2026, remerciant la communauté pour ses créations et reconnaissant implicitement la déception collective, marque la fin d'une expérience sociale audacieuse mais vouée à l'échec.
Ce tweet officiel, bien que poli, omet curieusement de mentionner les raisons exactes de ce retrait précipité. OpenAI promet simplement de communiquer prochainement sur un calendrier de fermeture et sur les moyens de « préserver votre travail ». Cette formulation, anodine à première vue, soulève immédiatement une interrogation inquiétante pour les millions d'utilisateurs : que devient la masse de données générées, ces vidéos, et surtout ces visages et ces voix stockés sur les serveurs de l'entreprise ?

Une fin sans explication immédiate
L'absence de transparence dans l'annonce initiale a rapidement alimenté les spéculations. Pour une entreprise qui a l'habitude de détailler les « roadmaps » de ses produits, ce silence sur les causes profondes de la fermeture est troublant. Les observateurs ont noté que le message se concentre exclusivement sur l'aspect émotionnel, remerciant les créateurs, tout en passant sous silence les crises de modération et les controverses juridiques qui ont éclaboussé l'application ces dernières semaines. Cette communication minimaliste reflète sans doute la volonté d'éteindre l'incendie médiatique sans y jeter d'huile supplémentaire en admettant des erreurs de conception.
Inquiétudes pour les données des utilisateurs
Au-delà de la disparition de l'application, c'est l'incertitude juridique qui inquiète la communauté. Les mentions légales de Sora autorisaient l'utilisation des créations pour l'entraînement des modèles, mais la fin du service modifie radicalement la donne. Sans précision claire sur la suppression effective des bases de données, les craintes portent sur la survie numérique des millions de deepfakes générés. OpenAI a promis des détails sur le « comment », mais en attendant, c'est le flou total sur la destination finale de cette immense banque de données synthétiques.
Un réseau social 100 % IA : le pari risqué d'OpenAI
Pour comprendre l'ampleur du désastre, il faut revenir sur la nature même du pari d'OpenAI. Contrairement à TikTok, Instagram ou YouTube, Sora interdisait toute publication de contenu « réel ». Pas de photos de vacances, pas de selfies face à un miroir, pas de montages filmés avec un téléphone. La règle était absolue : seules les vidéos générées par l'intelligence artificielle via le modèle Sora 2 avaient le droit de cité sur cette plateforme.
L'objectif affiché était de créer un espace de créativité « pure », libéré des contraintes matérielles de la production vidéo. OpenAI imaginait une utopie où l'imagination serait le seul moteur, où chaque utilisateur pourrait devenir un réalisateur de blockbusters en tapant simplement une description textuelle. Cependant, cette architecture radicale avait un défaut fatal qu'OpenAI semble avoir sous-estimé : en éliminant tout filtre humain préalable à la publication, l'entreprise supprimait par la même occasion la première barrière de la modération. L'IA devenait l'unique gatekeeper, et comme les événements ont malheureusement démontré, ce gardien était terriblement perméable aux pires dérives de l'internet.
Dans les heures suivant le lancement, le fil Sora dérivait déjà vers le racisme et la violence
Si la communication marketing d'OpenAI mettait en avant la créativité, l'imagination et l'art, la réalité du fil d'actualité de Sora, dès les premières heures suivant son lancement, prenait une tout autre allure. Loin des rêves poétiques, la plateforme s'est rapidement transformée en un terrain vague pour le pire du contenu génératif par les utilisateurs. Ce n'était pas une dérive lente et graduelle, mais une cascade immédiate de contenus toxiques qui a submergé les modérateurs et les filtres automatiques.
Dès les premiers jours, le feed de Sora était saturé de scènes graphiques d'une violence choquante et de représentations racistes flagrantes. Les révélations du Guardian à l'époque avaient mis en lumière ce paradoxe cinglant : en violant directement les propres conditions d'utilisation d'OpenAI, qui interdisaient explicitement la haine et la violence extrême, les utilisateurs prouvaient que les garde-fous techniques étaient soit inexistants, soit trivialement contournables. Le contraste était saisissant entre l'image policée donnée par Sam Altman lors des conférences de presse et la réalité brutale d'un réseau social où l'IA générait sans vergogne des scènes d'horreur, des caricatures stéréotypées et des contenus offensants.
Les premières heures : un fil d'actualité hors de contrôle
Il est crucial de détailler concrètement ce qui circulait sur Sora lors de cette période chaotique. Le réseau social n'était pas seulement inondé de violence gratuite, il servait également de vecteur à des violations massives de droits d'auteur. Des personnages protégés, icônes de la pop culture ou héros de dessins animés, étaient plongés dans des situations scabreuses, morbides ou sexuellement explicites par le simple biais d'une invite textuelle malveillante.
Ce phénomène révélait un dysfonctionnement profond au cœur de la sécurité de l'IA. OpenAI avait certes publié des conditions d'utilisation strictes, mais la modération algorithmique, censée détecter et bloquer ces contenus avant leur publication, s'est avérée totalement inefficace face au volume et à l'inventivité des utilisateurs. Le fil d'actualité devenait ainsi le miroir des pires pulsions d'une partie d'internet, amplifiées par la puissance générative de Sora 2.
Des marques et des univers piratés dès le premier jour
Au-delà de la violence et du racisme, Sora s'est très vite posé en ennemi juré de la propriété intellectuelle. Dès le premier jour, il est devenu évident que le modèle avait ingéré une quantité massive de données protégées, et qu'il restituait ces influences sans la moindre nuance. Ce n'était pas un bug marginal ou une erreur occasionnelle, mais un comportement structurel du modèle : il générait des vidéos reprenant sans aucune autorisation l'esthétique, les univers graphiques et les personnages distinctifs de films, de séries et de marques célèbres.

Les utilisateurs s'en sont donné à cœur joie, créant des pastiches et des détournements qui floutaient la ligne entre l'hommage et la contrefaçon. Cette facilité avec laquelle Sora permettait de pirater des univers entiers préfigurait directement les désastres juridiques à venir. Si les petites marques pouvaient peu faire face à cette marée de contenu non autorisé, l'arrivée de poids lourds comme Disney dans l'histoire allait nécessairement transformer ce problème de modération en une crise économique majeure.
La fonction Cameo : comment Sora a transformé n'importe quel visage en deepfake ultra-réaliste
Si les dérives générales concernant la violence et la propriété intellectuelle étaient déjà préoccupantes, la fonctionnalité qui a véritablement transformé Sora en « l'application la plus effrayante de votre téléphone » se nommait Cameo. Cette fonction a porté la menace à un niveau personnel et intime, démontrant que les dangers de l'IA générative ne se limitaient pas aux personnages de fiction ou aux célébrités lointaines, mais pouvaient frapper n'importe quel individu possédant un smartphone.
Le mécanisme de Cameo était à la fois simple et terrifiant dans son efficacité. Les utilisateurs vérifiés pouvaient non seulement s'insérer eux-mêmes dans n'importe quelle scène générée par l'IA, mais ils avaient également la possibilité d'autoriser leurs « amis » sur la plateforme à utiliser leur apparence. Et ici, le terme « apparence » est à prendre au sens le plus littéral : le modèle utilisait non seulement le visage de la personne, mais imitait également sa voix. C'est cette combinaison précise, visage plus voix, qui a créé une bombe à retardement.
Visage, voix, scénario : le kit complet du deepfake en deux clics
Concrètement, le processus de création de deepfake via Cameo était d'une simplicité déconcertante, ce qui en faisait tout le danger. Un utilisateur A donnait son accord à l'utilisateur B pour utiliser son « persona ». À partir de ce moment, l'utilisateur B pouvait taper n'importe quel scénario, aussi délirant ou malsain soit-il, et l'IA Sora 2 générait une vidéo où l'utilisateur A apparaissait, parlant avec sa propre voix, et agissant selon le script de B.
Rien dans ce flux ne nécessitait une vérification du consentement de la personne figurant dans la vidéo finale au moment de la génération. Une fois l'accord initial donné, il était impossible de contrôler l'usage qui en serait fait. Cette architecture représentait une rupture totale par rapport aux technologies de deepfake précédentes, qui nécessitaient souvent des compétences techniques en montage vidéo ou en manipulation de fichiers. Avec Sora et sa fonction Cameo, la barrière technique disparaissait pour laisser place à une usine à harcèlement potentielle.
Michael Jackson au KFC, Stephen Hawking en skateboard : l'euphorie qui masquait le danger
Au début, les exemples circulant sur les réseaux sociaux faisaient plutôt sourire par leur absurdité surréaliste. Des sites comme Euronews relataient comment Sora était devenu un immense terrain de jeu pour l'imagination collective : on y voyait ainsi Michael Jackson voler des seaux de poulet dans un KFC, ou encore le physicien Stephen Hawking réaliser des figures de skateboard.
Si ces vidéos pouvaient sembler anodines, voire divertissantes pour un public habitué aux mèmes internet, elles masquaient un problème de fond fondamental. Elles illustraient la normalisation progressive et sociale de l'utilisation non consensuelle de l'image d'autrui, y compris celle de personnes défuntes. En riant de ces deepfakes grand public, les utilisateurs acceptaient implicitement l'idée que l'image d'une personne pouvait être appropriée et manipulée sans son accord pour le simple divertissement d'autrui.
Michael Jackson, Martin Luther King Jr. et les restrictions imposées sous la pression
Face à la montée des controverses, OpenAI n'a pas réagi par un sens aigu de la responsabilité éthique immédiate, mais plutôt sous la pression de plus en plus insistante de l'extérieur. L'entreprise a fini par instaurer des restrictions sur l'utilisation de certaines personnalités publiques, mais cette réaction est intervenue tardivement et uniquement après que les familles des victimes et des puissantes organisations syndicales aient fait entendre leur voix. Ce pattern réactif, et non préventif, a mis en lumière l'incapacité d'OpenAI à anticiper les conséquences humaines de sa technologie.
Il est devenu évident que la modération de Sora ne reposait pas sur des principes universels de respect de la personne, mais sur une base discriminatoire : seules les figures disposant d'un pouvoir de frappe médiatique et juridique suffisant pouvaient espérer voir leur image protégée. Cette approche à deux vitesses de la protection de l'image a jeté le discrédit sur la volonté d'OpenAI de créer un environnement sûr et équitable pour tous ses utilisateurs.
Les personnalités protégées, les autres laissées à l'abandon
La liste des personnalités pour lesquelles OpenAI a fini par mettre en place des garde-fous spécifiques est révélatrice de cette dynamique de pression. Michael Jackson, Martin Luther King Jr., ou encore Mister Rogers ont vu progressivement leur accès via Cameo restreint ou bloqué. Pourquoi eux ? Parce que leurs ayants droit, leurs familles ou leurs fondations possédaient les ressources nécessaires pour menacer OpenAI d'actions en justice retentissantes et de campagnes de presse destructrices.
Ce système laissait les citoyens ordinaires dans un vide juridique et technologique complet. Pour l'utilisateur lambda, dont le visage pouvait être utilisé par un voisin ou un collègue malveillant via Sora, il n'existait aucun mécanisme de recours efficace. OpenAI n'avait pas prévu de processus rapide pour les anonymes, contrairement aux « VIP » du contenu. Cette inégalité de traitement face à la technologie des deepfakes a créé un sentiment d'insécurité profond, illustrant que dans l'écosystème Sora, la protection de votre image dépendait davantage de votre notoriété que de vos droits fondamentaux.
Les syndicats d'acteurs sonnent l'alarme
Le retournement de situation n'aurait probablement pas eu lieu sans l'intervention vigoureuse des organisations professionnelles. Les syndicats d'acteurs, traumatisés par les grèves récentes contre l'utilisation de l'IA dans le cinéma, ont immédiatement sonné l'alarme face à Sora. Ils ont compris que l'application ne se contentait pas de concurrencer les artistes, mais menaçait directement leur intégrité professionnelle et personnelle en permettant la reproduction non autorisée de leur jeu d'acteur et de leur apparence.
Ce sont ces organisations qui ont poussé OpenAI à agir, transformant une question éthique en un rapport de force industriel. Leur mobilisation a forcé la main de la direction d'OpenAI, démontrant une fois de plus que les limites technologiques de la plateforme n'ont été fixées que sous la contrainte politique et légale, et non par une volonté interne de bien faire. Sans cette pression, il est fort probable que les fonctionnalités Cameo auraient continué à fonctionner sans entrave.

Les experts et groupes de défense : des avertissements ignorés
Il est rappelé que des universitaires, des experts et des groupes de défense avaient exprimé leurs inquiétudes avant et pendant le lancement. Leurs alertes sur la prolifération d'images non consensuelles et de deepfakes réalistes ont été minimisées au profit de la course au lancement. Cette surdité sélective aux signaux d'alerte a contribué à créer le monstre que Sora est devenu. L'arrogance technologique, consistant à croire que l'innovation peut précéder la régulation, s'est heurtée de front à la réalité complexe de l'humain et de ses dérives.
Un milliard de dollars et 200 personnages Disney : pourquoi le géant de l'animation a fui Sora
Le point de non-retour dans l'histoire de Sora ne se situe pas tant au niveau de l'éthique individuelle que dans la sphère économique froide. Le partenariat stratégique annoncé en décembre 2025 entre OpenAI et Disney devait être la caution institutionnelle ultime de l'application. Cet accord d'un milliard de dollars, prévoyant l'utilisation de plus de 200 personnages des univers Disney, Marvel, Pixar et Star Wars, visait à légitimer Sora en montrant que le leader mondial de l'animation lui faisait confiance.
Pourtant, le retrait précipité de Disney suite à l'annonce de la fermeture de Sora agit comme un révélateur cinglant. Même avec une licence légale massive, la toxicité intrinsèque de la plateforme et la mauvaise presse grandissante autour des deepfakes et des contenus illicites ont rendu toute association impossible pour la marque aux grandes oreilles. C'est le passage d'une crise de modération à une crise de réputation majeure qui a scellé le sort de l'application.
Décembre 2025 : le deal ambitieux qui devait légitimer Sora
L'accord conclu en décembre 2025 avait pour ambition de calmer les inquiétudes du marché et des créateurs de contenu. En ouvrant le catalogue de ses franchises les plus précieuses à Sora, Disney envoyait un message fort : l'IA générative pouvait coexister avec la propriété intellectuelle de premier plan, pourvu qu'elle soit correctement encadrée par des partenariats commerciaux. Pour OpenAI, c'était le Graal : disposer des ressources juridiques et créatives de Disney pour contrer les accusations de piratage qui fusaient de toute part.
La logique était imparable sur le papier. Si Mickey, Iron Man ou Yoda pouvaient être générés légalement par les utilisateurs de Sora, cela créait un précédent positif et montrait la voie d'une cohabitation pacifique entre l'IA et les studios. Cet accord était central dans la stratégie de légitimation d'OpenAI, transformant une application vue comme un outil de piratage en une plateforme de création « officielle ».
Quand la marque la plus protégée au monde juge l'outil trop risqué
Le retrait de Disney, confirmé par un porte-parole à la presse suite à l'annonce de fermeture d'OpenAI, est un signal économique massif. Il faut comprendre l'ampleur symbolique de ce recul : Disney est l'une des entreprises les plus protectrices au monde en matière de propriété intellectuelle, avec un arsenal juridique redoutable. Si le géant de l'animation estime que Sora est devenu trop toxique pour y associer ses personnages, c'est que le risque de réputation dépassait largement l'investissement d'un milliard de dollars.
C'est la preuve par l'argent que la crise de Sora avait dépassé le cadre de la simple modération de contenu. Le risque n'était plus seulement qu'un utilisateur génère une vidéo raciste, mais que cette vidéo implique Spider-Man ou Elsa. Ce mélange des genres, entre le chaos du contenu généré par les utilisateurs et l'innocence des marques Disney, était une bombe à retardement pour les actionnaires. La décision de Disney de fuir le navire a sans doute été l'élément déclencheur final pour OpenAI, signalant que le modèle économique de Sora était compromis.
« Quête secondaire » : quand Fidji Simo a signé l'arrêt de mort de Sora pour sauver l'IPO d'OpenAI
Au-delà des scandales de contenus et des départs de partenaires prestigieux, la véritable raison structurelle de la fermeture de Sora se trouve probablement dans les salles de réunion d'OpenAI, début mars 2026. C'est à ce moment que Fidji Simo, responsable des applications de la société, a adressé un message interne aux équipes leur demandant de ne pas se laisser distraire par des « quêtes secondaires ». L'utilisation de ce vocabulaire issu du monde du jeu vidéo pour qualifier une application qui était numéro 1 sur l'App Store six mois plus tôt est révélatrice du changement de cap brutal de l'entreprise.
Sora, qui devait être le fleuron de l'IA créative grand public, a été brusquement reléguée au rang de distraction, de gadget superflu face aux enjeux majeurs auxquels OpenAI doit faire face : la préparation d'une introduction en Bourse (IPO) cruciale, l'explosion des coûts de calcul, et une concurrence féroce de la part d'Anthropic et son modèle Claude. La fermeture de Sora ne relève pas tant d'un sursaut moral que d'un calcul stratégique impitoyable.
« Quête secondaire » : le vocabulaire qui trahit la réalité
L'expression « quêtes secondaires », employée par Fidji Simo, est lourde de sens. Dans les jeux vidéo, ces missions sont accessoires : elles peuvent être amusantes, apporter des récompenses mineures, mais elles n'influencent pas le dénouement de l'histoire principale. En appliquant ce terme à Sora, la direction d'OpenAI admet implicitement que l'application n'était pas centrale dans sa vision long terme.
Ce vocabulaire trahit une culture interne où les produits grand public, susceptibles de générer du buzz mais peu de revenus stables, sont perçus comme des jouets comparés aux « outils sérieux » que sont les agents IA et le code. Pour les employés qui ont travaillé dur sur le lancement de Sora, voir leur projet qualifié de « distraction » a dû être un choc. Cela montre que la direction a rapidement décrété que l'expérience réseau social n'était pas une « quête principale » digne d'investissement, surtout lorsqu'elle devient un passif médiatique.
Sam Altman annonce la fin de TOUTE la vidéo IA d'OpenAI
Il ne faut pas se méprendre : la fermeture de l'application Sora n'est qu'un symptôme d'un abandon plus large. Selon les informations du Wall Street Journal, relayées par divers médias, Sam Altman a annoncé aux employés la fermeture progressive de tous les produits utilisant les modèles vidéo d'OpenAI. Cela inclut non seulement l'application grand public, mais aussi la version destinée aux développeurs via l'API et la fonction vidéo intégrée à ChatGPT.
C'est un désaveu total du créneau vidéo. OpenAI ne corrige pas le tir, ne tente pas de nettoyer la plateforme ou de restreindre les fonctionnalités ; l'entreprise sabote l'ensemble de la division. Cette décision radicale indique que les problèmes rencontrés avec Sora étaient probablement structurels et insolubles à court terme avec la technologie actuelle. Plutôt que de continuer à investir dans une course aux armements modérative perdue d'avance, OpenAI préfère retirer ses billes et concentrer ses ressources sur des domaines plus rentables.
Anthropic grignote, les coûts explosent : le vrai calcul derrière la fermeture
En toile de fond de cette décision, la réalité financière rattrape OpenAI. Bien que la société revendique environ un milliard d'utilisateurs quotidiens, son modèle économique est sous tension. Les coûts de calcul nécessaires pour générer de la vidéo en haute définition via IA sont astronomiques et augmentent plus vite que les revenus générés par les abonnements.
Face à Anthropic, le créateur de Claude, qui grignote des parts de marché sur le segment très lucratif des outils professionnels (codage, analyse de données, agents autonomes), OpenAI ne peut plus se permettre le luxe d'un produit grand public déficitaire comme Sora. La préparation de l'IPO exige des comptes impeccables et une stratégie claire. Sora, avec sa toxicité pour l'image de marque et ses coûts exorbitants, est devenue la variable d'ajustement idéale pour rassurer les investisseurs.
Vos vidéos Sora, l'API et ChatGPT : ce que la fermeture signifie concrètement pour les utilisateurs français
Pour l'utilisateur français lambda, qu'il soit un créateur curieux ou un développeur technique, la fermeture de Sora pose des questions concrètes et urgentes. Au-delà de la déception de ne plus pouvoir utiliser l'outil, c'est l'incertitude concernant le devenir des données personnelles qui préoccupe le plus. Que se passe-t-il pour les milliers de vidéos créées, stockées sur les serveurs d'OpenAI, et potentiellement contenant l'image de personnes via la fonction Cameo ?
À ce jour, les réponses apportées par l'entreprise sont vagues. OpenAI promet de communiquer sur les « moyens de préserver votre travail », mais nul ne sait si cela implique un téléchargement local, une suppression pure et simple, ou une conservation indéfinie dans des archives numériques. Dans un contexte réglementaire français et européen de plus en plus strict sur la protection des données personnelles, ce flou juridique est inquiétant.
Aucune réponse claire sur le sort des données personnelles
Le vide juridique entourant la fermeture de Sora est problématique. OpenAI n'a rien annoncé de précis concernant la suppression effective des données, ni sur la conformité de ce processus avec le RGPD (Règlement Général sur la Protection des Données). Pour un utilisateur français, cela signifie que des données biométriques potentiellement sensibles — des visages, des voix synthétisées — pourraient subsister sur des serveurs situés aux États-Unis sans aucune garantie de suppression effective.
L'absence de calendrier précis pour la suppression des comptes et des contenus laisse planer un risque réel de fuite de données ou de réutilisation future. Si l'histoire de la tech nous enseigne quelque chose, c'est que les « données fantômes » ont la vie dure. Les utilisateurs ayant expérimenté la fonction Cameo doivent particulièrement se méfier : leur visage et leur voix numérisés par l'IA ne disparaîtront peut-être jamais totalement des bases de données d'entraînement ou de sauvegarde, malgré la fermeture officielle de l'application.
Développeurs et intégrateurs : l'API Sora disparaît aussi
L'impact ne se limite pas aux consommateurs finaux. La fermeture de l'API Sora affecte gravement la communauté des développeurs et des startups françaises qui avaient intégré cette technologie dans leurs propres produits. Des applications tierces, des services de montage vidéo ou des plateformes de création publicitaire avaient bâti une partie de leur valeur ajoutée sur l'accès aux modèles vidéo d'OpenAI.
Cette rupture brutale du service API oblige ces entreprises à revoir leur architecture et à chercher des alternatives hâtivement, ce qui peut mettre en péril la stabilité de leurs propres services. C'est un rappel brutal des risques liés à la dépendance vis-à-vis des fournisseurs de modèles d'IA : ce qui est une innovation majeure aujourd'hui peut devenir un cul-de-sac technologique demain, sans préavis suffisant pour assurer la transition. Pour l'écosystème tech français, cette fermeture est un avertissement sévère sur la fragilité des fondations construites sur les API des géants de la Silicon Valley.
Sora, laboratoire d'un échec annoncé : et si l'IA grand public était fondamentalement ingérable ?
L'histoire de Sora restera comme un cas d'école dans l'industrie technologique, non pas tant pour ses prouesses techniques que pour son échec systémique. Revenant au syndrome Frankenstein évoqué en introduction, on constate que l'IA lâchée dans la nature sans garde-fous adéquats a fini par se retourner contre son créateur, dévorant sa propre réputation sous une avalanche de deepfakes toxiques. Sora n'est pas un accident isolé, mais la manifestation symptomatique d'une approche qui privilégie la vitesse de lancement sur la sécurité de l'usage.
Cependant, il serait naïf de voir la fermeture de Sora comme un acte de pure responsabilité éthique de la part d'OpenAI. Comme l'analyse des révélations internes le montre, c'est avant tout un calcul économique dicté par les impératifs d'une introduction en Bourse imminente et par la nécessité de rationnaliser des coûts qui explosaient. En sacrifiant Sora, OpenAI sacrifie son « jouet » grand public pour se concentrer sur des segments B2B plus rentables, comme le codage et les agents IA, là où la concurrence d'Anthropic se fait sentir.
La vraie question qui reste en suspens, alors que les serveurs de Sora s'éteignent, n'est pas de savoir pourquoi OpenAI a fermé cette application spécifique. Elle est de comprendre ce qui se passera quand le prochain outil identique fera son apparition. OpenAI ou un concurrent lanceront tôt ou tard un nouveau modèle vidéo grand public. Auront-ils tiré les leçons du désastre Sora, ou retomberont-ils dans les mêmes travers, au nom de la course au profit et à l'innovation ? L'IA créative grand public est peut-être en pause, mais l'ambition technologique, elle, ne disparaît pas. La prochaine « créature » est déjà en préparation dans les laboratoires.