Rana Kaliouby dans un environnement de bureau.
Tech & Gaming

Financement IA et femmes : inégalités, biais et solutions

Malès l'essor de l'IA, les femmes restent sous-financées et victimes de biais. Décryptage des inégalités, des risques algorithmiques et des solutions pour une tech plus inclusive.

As-tu aimé cet article ?

Alors que l'intelligence artificielle promet de redistribuer les cartes économiques mondiales, une ombre plane sur cette révolution technologique : celle d'un creusement abyssal des inégalités de richesse entre les hommes et les femmes. C'est le cri d'alarme lancé par Rana el Kaliouby, pionnière de l'IA et investisseuse, qui met en lumière un mécanisme d'exclusion financier aussi puissant qu'invisible. Loin d'être un simple problème de diversité, la sous-représentation des femmes dans la sphère de l'IA menace de créer un fossé économique irréversible, où le capital et la décision demeureraient concentrés entre les mains d'un « club de garçons » ultra-dominant. Alors que des milliards de dollars sont injectés chaque mois dans ce secteur, il est urgent de décortiquer les chiffres qui prouvent que, sans intervention radicale, les femmes risquent d'être les grandes perdantes de l'ère de l'IA.

Rana Kaliouby dans un environnement de bureau.
Rana Kaliouby dans un environnement de bureau. — Joi Ito / CC BY 2.0 / (source)

Quand 23,5 milliards de dollars contournent les fondatrices

L'année 2023 restera comme une année dorée pour l'intelligence artificielle, marquée par une flambée des investissements sans précédent. Pourtant, derrière ce raz-de-marée financier, une réalité glaçante se dissimule : la part du gâteau réservée aux femmes fondatrices reste symbolique, illustrant une stagnation inquiétante malgré les discours volontaristes. Les chiffres, lorsqu'ils sont observés sous la loupe de la répartition par genre, racontent une histoire d'exclusion qui semble se pérenniser plutôt que de se résorber.

Le constat glacant de Rana el Kaliouby : 15 % des fonds pour 100 % de l'ambition

Dans une analyse détaillée publiée sur LinkedIn dans le cadre de l'Eisenhower Fellowship, Rana el Kaliouby dévoile des statistiques qui devraient provoquer un électrochoc dans l'écosystème entrepreneurial. Aux États-Unis, en 2023, le montant total des fonds levés par les entreprises d'intelligence artificielle a atteint la somme astronomique de 23,5 milliards de dollars. Sur cette masse colossale de capitaux, les entreprises comptant au moins une femme fondatrice n'ont récolté que 3,61 milliards de dollars.

Ce chiffre, qui représente environ 15,38 % du total, pourrait sembler modeste à première vue, mais il s'avère catastrophique lorsqu'on le met en perspective avec les années précédentes. Rana el Kaliouby rappelle qu'en 2019, cette part n'était que de 11,5 %. En cinq ans, malgré l'explosion du secteur et la médiatisation des enjeux de diversité, la progression n'a été que de quatre points seulement. Cela signifie que l'augmentation du volume global des investissements profite majoritairement aux équipes masculines, laissant les femmes quémander des miettes d'une table dont elles contribuent pourtant à dresser les convives. À ce rythme, l'égalité d'accès au capital en IA ne sera pas atteinte avant plusieurs décennies, laissant les femmes sur le bord de la route de la plus grande transformation économique du siècle.

Pourquoi l'IA fait pire que le reste de la tech

Le secteur de l'intelligence artificielle se distingue malheureusement par un retard significatif en matière de diversité comparé aux autres domaines du numérique. Loin d'être un vecteur de progression, l'IA agit comme un concentrateur des inégalités existantes. Selon le rapport « Women in Digital » de l'UNESCO cité par Free-Work, moins de 22 % des spécialistes de l'IA à travers le monde sont des femmes. Ce chiffre est déjà alarmant, mais la réalité devient plus sombre encore lorsque l'on s'attarde aux postes à haute responsabilité et aux profils techniques les plus pointus.

Pour les métiers techniques avancés, tels que data scientists, ingénieures en IA ou chercheuses en traitement du langage naturel (NLP), la proportion de femmes chute à seulement 12 %. En comparaison, le secteur du numérique dans son ensemble affiche une moyenne de 28 à 30 % de femmes. Ce décalage prouve que l'intelligence artificielle, perçue comme la technologie de l'avenir, reproduit et amplifie les biais masculins du passé. Cette sous-représentation technique a un impact direct sur la conception des outils et sur la capacité des femmes à attirer les investisseurs, ces derniers ayant tendance à financer des équipes qui leur ressemblent. L'IA, de par sa complexité technique supposée, se crée une image élitiste et masculinisée qui repousse les talents féminins et valide l'idée reçue que « la science n'est pas une affaire de femmes ».

Rana el Kaliouby : de la chercheuse du MIT à l'investisseuse qui brise le silence

Pour comprendre la force de l'alerte lancée par Rana el Kaliouby, il est essentiel de saisir le parcours de celle qui la porte. Elle n'est pas une simple observatrice extérieure ou une militante de terrain ; elle est une actrice de premier plan qui a navigué avec succès dans les eaux tumultueuses de la tech, côtoyant les plus grandes institutions tout en brisant les plafonds de verre. Son autorité sur le sujet ne vient pas seulement de son expertise académique, mais de son expérience vécue au cœur même de ce « boys' club » qu'elle dénonce aujourd'hui avec une lucidité implacable.

Affectiva : quand une femme a prouvé que l'IA émotionnelle était possible

Le parcours de Rana el Kaliouby est tout sauf un chemin tracé d'avance. Co-fondatrice et CEO d'Affectiva, une entreprise née au sein du prestigieux MIT Media Lab, elle a dédié une grande partie de sa carrière à un domaine de l'IA encore sous-estimé à l'époque : l'IA émotionnelle. L'objectif d'Affectiva était ambitieux et révolutionnaire : permettre aux machines de comprendre les émotions humaines en analysant les expressions faciales et le ton de la voix. Ce défi scientifique et technologique majeur a été relevé par une équipe dirigée par une femme dans un environnement dominé par les ingénieurs masculins.

Sous sa direction, Affectiva s'est imposée comme une référence mondiale, prouvant qu'une vision différente de l'IA, plus centrée sur l'humain et l'émotion, pouvait être un succès commercial retentissant. La vente de l'entreprise à Smart Eye en 2021 a constitué une étape décisive, validant son modèle et lui conférant une légitimité incontestée auprès des investisseurs internationaux. Cette expérience lui a permis de vivre de l'intérieur les difficultés de levée de fonds pour une femme CEO, subissant les préjugés implicites qui questionnent souvent la capacité des dirigeantes à gérer la croissance rapide de startups technologiques « deep tech ». C'est cette double casquette de scientifique brillante et de dirigeante d'entreprise qui donne à ses propos une résonance particulière : elle sait de quoi elle parle.

Rana el Kaliouby lors d'une intervention.
Rana el Kaliouby lors d'une intervention. — Web Summit / CC BY 2.0 / (source)

Blue Tulip Ventures : investir dans une autre vision de l'IA

Aujourd'hui, Rana el Kaliouby est passée de l'autre côté de la table en devenant General Partner chez Blue Tulip Ventures. Ce changement de posture est crucial : elle n'est plus celle qui cherche des fonds, mais celle qui les distribue. Cette nouvelle perspective lui offre une vision panoramique des mécanismes de financement et lui permet d'identifier les schémas de répétition qui plombent l'industrie. Dans ce rôle, elle ne se contente pas d'observer ; elle cherche activement à changer les règles du jeu en soutenant des projets diversifiés qui, souvent, sont ignorés par les fonds de capital-risque traditionnels.

C'est depuis cette position d'investisseuse qu'elle théorise le concept de « compounding effect » (effet boule de neige). Elle met en garde contre une prophétie autoréalisatrice : si les femmes continuent de recevoir moins de financements, elles généreront moins de retours sur investissement et de richesses, ce qui justifiera, aux yeux des investisseurs futurs, de continuer à leur en donner moins. Pour Rana el Kaliouby, l'argent détient le pouvoir, et l'exclusion financière actuelle des femmes dans l'IA conduit mécaniquement à une exclusion politique et décisionnelle demain. Son combat est désormais de briser ce cercle vicieux en utilisant sa propre influence et ses fonds pour ouvrir les portes du capital aux femmes innovantes.

Le cercle vicieux de l'entre-soi masculin : 80 % des fonds aux équipes 100 % masculines

Le terme « boys' club » est souvent utilisé de manière anecdotique pour décrire des environnements de travail masculins, mais dans le domaine de l'investissement en intelligence artificielle, il désigne une réalité structurelle et chiffrée. Ce mécanisme d'exclusion ne relève pas du hasard ni de l'incompétence supposée des femmes, mais d'un système verrouillé par des réseaux informels, souvent invisibles, qui régulent l'accès au pouvoir et à l'argent. Comprendre ce fonctionnement est indispensable pour saisir pourquoi les solutions superficielles, comme de simples quotas de présence, ne suffiront pas à corriger le tir.

Définition du boys' club : quand le réseau des « vieux potes » verrouille le pouvoir

Le concept de boys' club, défini par Wikipédia et l'analyse de Martine Delvaux, désigne un réseau informel privé, largement ou exclusivement masculin, dont les membres, socialement homogènes, sont choisis par cooptation pour s'entraider professionnellement. Dans l'univers de la tech et des investissements, cela se traduit par des décisions de financement qui se jouent souvent en dehors des salles de réunion officielles : lors de dîners privés, de parties de golf ou d'événements fermés où les femmes sont rarement conviées. Comme le souligne Martine Delvaux dans son ouvrage Le Boys Club, ces groupements ont pour fonction de « se maintenir » en excluant ceux qui ne correspondent pas au profil type, perpétuant ainsi une domination masculine blanche et hétérosexuelle.

Cette homosocialité masculine crée un biais de confirmation dangereux : les investisseurs, majoritairement des hommes blancs issus de grandes écoles, ont tendance à faire confiance à des profils qui leur ressemblent, perçus comme moins risqués et plus compétents. Les femmes, et particulièrement les femmes de couleur, sont perçues comme des « exceptions » qui doivent faire deux fois plus de preuves pour obtenir la moitié du financement. L'IA, secteur nouveau et complexe, n'échappe pas à cette règle et souffre même d'un effet de concentration, où l'expertise technique présumée sert d'argument pour justifier l'entre-soi.

Le chiffre qui tue : 0,3 % du capital pour les équipes 100 % féminines

L'analyse des données compilées par le rapport de l'Alan Turing Institute, cité par Rana el Kaliouby, offre une vision brutale de ce système à l'œuvre. Sur la période s'étendant de 2012 à 2022, 80 % du capital-risque investi dans l'intelligence artificielle a été capté par des équipes exclusivement masculines. À l'inverse, les équipes exclusivement féminines n'ont reçu que 0,3 % de ce capital. Ce ratio de un à plus de deux cent cinquante illustre l'ampleur du déséquilibre structurel qui affecte l'écosystème.

Il ne s'agit pas simplement d'une sous-représentation, mais d'une quasi-éradication économique des femmes fondatrices dans le secteur. Ces chiffres démontrent que l'argument « il n'y a pas assez de femmes dans l'IA pour financer » est fallacieux. Même lorsqu'elles fondent des entreprises, elles ne sont pas financées à leur juste valeur. Cette inégalité d'accès au capital a des conséquences directes sur la survie et la croissance de ces startups. Sans fonds, pas de marketing, pas de recrutement des meilleurs talents, pas de R&D, et donc, inévitablement, un taux d'échec plus élevé qui renforce le préjugé initial des investisseurs. C'est un cercle vicieux parfait qui verrouille la richesse masculine.

Illustration sur les inégalités hommes-femmes et l'IA.
Illustration sur les inégalités hommes-femmes et l'IA. — (source)

L'écart de richesse qui s'auto-alimente

Les conséquences de ce système de financement biaisé se mesurent en termes de richesse individuelle nette. Selon une étude approfondie de Carta rapportée par Rana el Kaliouby, pour chaque dollar détenu par un homme dans la tech, une femme en possède seulement 0,47. Pour les fondatrices, la situation est encore critique : elles ne détiennent que 0,39 $ pour chaque dollar détenu par un fondateur masculin. Cet écart de patrimoine ne se réduit pas ; au contraire, il se creuse chaque année que le système perdure.

De plus, le montant moyen levé par tour de financement (deal) pour une entreprise fondée par des femmes est quatre fois plus faible que celui levé par une équipe exclusivement masculine. Dans le secteur spécifique de l'IA, cet écart s'élève à un facteur de six. Rana el Kaliouby insiste sur la notion de « compounding effect » : l'argent investi aujourd'hui génère des rendements exponentiels demain. Si les femmes commencent avec six fois moins de capital, la différence de richesse accumulée sur dix ans sera astronomique. Nous ne sommes pas seulement face à une inégalité de salaire, mais face à une inégalité de capitalisation qui condamne les femmes à une dépendance économique structurelle, les écartant des postes de pouvoir et de décision au sein des entreprises du futur.

Les IA qui discriminent sans le dire : du CV rejeté au prêt refusé

Au-delà des inégalités de financement, le « boys' club » de l'IA engendre des conséquences tangibles et immédiates pour la vie quotidienne des femmes. Les algorithmes, conçus majoritairement par des équipes masculines à partir de biais historiques, reproduisent et amplifient les discriminations sexistes. Ces technologies ne sont pas neutres ; elles sont des miroirs déformants des préjugés de leurs créateurs. Lorsqu'elles prennent des décisions qui affectent l'emploi, le logement ou le crédit, ces IA deviennent des instruments de discrimination à grande échelle, invisible mais redoutablement efficace.

Amazon, 2018 : l'algorithme qui détestait les CV de femmes

L'un des exemples les plus célèbres et les plus édifiants de ce biais algorithmique provient d'Amazon, géant mondial de la tech. En 2018, l'entreprise a dû abandonner en catastrophe son outil de recrutement par IA, développé en interne, après avoir découvert qu'il discriminait systématiquement les candidatures féminines. L'objectif de l'outil était de parcourir les CV reçus sur les dix années précédentes pour identifier les meilleurs profils et repérer les talents. Le problème venait de la source des données : les CV soumis à Amazon sur cette période étaient majoritairement masculins, reflet de la composition du secteur technique.

L'algorithme avait donc « appris » que les mots masculins étaient synonymes de compétence et de performance. Il a commencé à pénaliser les CV contenant des mots comme « women's » ou ceux mentionnant des établissements uniquement féminins, allant jusqu'à dévalider les diplômes de deux prestigieuses universités pour femmes. Si cet outil n'avait pas été détecté et stoppé à temps, il aurait automatisé l'exclusion des femmes des postes techniques chez l'un des plus grands employeurs mondiaux, scellant mathématiquement leur absence du secteur. Cet incident illustre parfaitement comment une IA, sans supervision éthique rigoureuse, transforme les discriminations passées en règles de gestion futures, un phénomène détaillé par ONU Femmes.

Quand ChatGPT associe « femme » à « maison » et « homme » à « salaire »

Les biais ne s'arrêtent pas aux outils de recrutement spécialisés ; ils infectent également les grands modèles de langage (LLM) comme GPT, que nous utilisons quotidiennement pour écrire, coder ou chercher de l'information. Une étude de l'UNESCO de mars 2025, rapportée par Free-Work, a mis en évidence que ces modèles associent de manière stéréotypée les noms féminins à des concepts de « maison », « famille » ou « enfants », tandis que les noms masculins sont liés à « carrière », « commerce » ou « salaire ».

Cette association automatique influence la manière dont ces IA génèrent du texte professionnel. Si l'on demande à un chatbot de générer une description de poste pour un poste à haute responsabilité, il a tendance à privilégier des termes et des attributs masculins. À l'inverse, pour des tâches administratives ou de care, le biais s'inverse. Ces stéréotypes, diffusés à travers des millions d'interactions par jour, contribuent à invisibiliser les femmes dans la sphère professionnelle et à valider l'idée que leur place est naturellement ailleurs. Pour une entrepreneure cherchant des financements ou des partenaires, un matériel marketing généré par une IA biaisée peut involontairement la projeter dans un rôle secondaire, minant sa crédibilité avant même qu'elle n'ait pu s'exprimer.

Les décisions invisibles qui coûtent cher

Comme le souligne Zinnya del Villar, experte en IA responsable pour l'ONU Femmes, ces biais ne sont pas de simples erreurs sémantiques sans conséquences ; ils ont un impact direct et mesurable sur le pouvoir d'achat et l'autonomie financière des femmes. Les algorithmes d'IA sont de plus en plus utilisés par les banques pour évaluer les risques de crédit, par les assurances pour fixer les primes, et même par la justice pour orienter les décisions de libération conditionnelle.

Dans ces domaines, les données historiques sont souvent biaisées par des siècles de discriminations. Si une IA est entraînée sur des données montrant que les femmes ont des salaires plus bas ou des carrières plus hachées, elle conclura qu'elles sont des profils à risque plus élevé. Cela peut se traduire par un refus de prêt immobilier, une prime d'assurance plus élevée ou une offre d'emploi moins avantageuse. Ces « décisions invisibles », prises par des boîtes noires algorithmiques, enferment les femmes dans une précarité économique mathématiquement validée par la machine. Le danger est que ces outils, perçus comme objectifs et rationnels, rendent la discrimination plus difficile à contester et à combattre juridiquement.

Les assistants vocaux et autres « domestiques numériques » qui formatent les esprits

Au-delà des décisions économiques directes, l'IA exerce une influence culturelle puissante à travers la conception même de ses interfaces les plus populaires. Les choix de design, notamment concernant la voix et la personnalité des agents conversationnels, véhiculent des stéréotypes de genre qui participent à la construction sociale des rôles féminins et masculins. Ces choix, apparemment anodins, contribuent à ancrer l'image de la femme comme une assistante serviable, effacée et dévouée, renforçant l'ordre patriarcal par la technologie.

Alexa, Siri et l'imaginaire de la femme au service

L'exemple le plus frappant est celui des assistants vocaux grand public comme Siri, Alexa ou Google Assistant. Par défaut, ces entités intelligentes qui répondent à nos demandes, règlent notre emploi du temps et tolèrent nos humeurs, sont dotées de voix féminines. ONU Femmes souligne que ce choix de conception n'est pas neutre : il s'ancre dans un imaginaire collectif historique qui associe les femmes aux rôles de service, d'assistance et de soumission.

En donnant une voix de femme à ces IA que l'on « ordonne » d'exécuter des tâches domestiques, on banalise l'idée que la fonction de la femme est d'être disponible, obéissante et invisible. Cette répétition quotidienne, dans des millions de foyers, participe à l'éducation implicite des générations futures sur les rôles de genre. Si l'IA représentait le pouvoir et la commande, elle serait sans doute masculine ; mais comme elle est là pour servir et faciliter la vie, elle est féminine. Ce biais symbolique renforce indirectement l'idée que les femmes ne sont pas faites pour diriger ou commander des équipes complexes, mais pour assister et exécuter, ce qui a un impact direct sur leur légitimité aux postes de direction en entreprise.

La reconnaissance faciale qui « voit » mal les femmes

Le biais de la technologie n'est pas seulement auditif, il est aussi visuel. Les systèmes de reconnaissance faciale, utilisés pour la sécurité, le déverrouillage des smartphones ou le tagging sur les réseaux sociaux, présentent des taux d'erreur beaucoup plus élevés lorsqu'ils tentent d'identifier des femmes, et particulièrement des femmes de couleur. ONU Femmes rappelle que cette faiblesse technique découle directement des bases de données d'entraînement, qui ont été constituées majoritairement à partir de photos d'hommes blancs.

Les conséquences de ce déficit de visibilité technologique sont sérieuses. Dans un contexte sécuritaire, une femme peut être accusée à tort d'une infraction car le système ne l'a pas reconnue correctement. Dans un contexte d'accès aux services, elle peut être exclue de processus automatisés nécessitant une authentification faciale. Plus insidieusement, le fait que la technologie ne « voit » pas bien les femmes envoie le message implicite qu'elles ne sont pas le standard, qu'elles sont une anomalie que le système peine à traiter. Ce manque de reconnaissance numérique participe à l'invisibilisation des femmes dans l'espace public et numérique, là encore à leur détriment.

La riposte française : formations, fonds et réseaux qui changent la donne

Face à cette avalanche de chiffres et de prédictions alarmistes, il est crucial de ne pas céder au pessimisme. La France et l'Europe ne restent pas inactives et déploient une série d'initiatives concrètes pour corriger le tir. Des programmes de formation aux fonds d'investissement dédiés, en passant par des réseaux de mentorat puissants, des solutions sont mises en place pour permettre aux femmes de s'approprier les leviers de l'IA. Ces initiatives, encore récentes, montrent que la prise de conscience est réelle et que les ressources existent pour celles qui veulent saisir les opportunités de cette révolution technologique.

Women in AI France : le réseau qui accompagne depuis 2016

La France dispose d'un atout majeur dans la lutte contre l'exclusion des femmes de l'IA : Women in AI France. Fondée à Paris en 2016, cette organisation à but non lucratif a été pionnière en Europe en matière de diversité dans l'intelligence artificielle. Son action repose sur un constat simple : l'isolement est l'ennemi principal des femmes dans la tech. En créant une communauté forte et solidaire, Women in AI France brise le système de cooptation masculin en offrant un réseau alternatif puissant.

L'organisation propose une gamme complète de services pour aider les femmes à monter en compétence et en visibilité. Des programmes de mentorat mettent en relation des juniors avec des expertes confirmées, permettant un transfert de savoir-faire qui ne se fait pas naturellement dans les entreprises traditionnelles. Des bootcamps et des masterclasses thématiques permettent de se former aux derniers outils techniques, mais aussi aux soft skills nécessaires pour lever des fonds ou diriger des équipes. Ce type de structure est essentiel pour contrer l'effet « boys' club » en créant des connexions informelles, mais cette fois-ci au profit des femmes.

Rana el Kaliouby assise sur une chaise violette.
Rana el Kaliouby assise sur une chaise violette. — (source)

GenIAles, Ada Tech School et les formations qui ouvrent les portes

L'éducation et la formation sont les clés de voûte de l'émancipation économique. Plusieurs initiatives françaises ont compris que pour changer la donne, il faut investir massivement dans le capital humain féminin. GenIAles, lancée par Simplon au début de l'année 2024, est un exemple parfait de cette dynamique. Ce programme propose des formations entièrement financées et sans exigence de diplôme préalable, visant à démocratiser l'accès à l'IA générative. À travers des ateliers intensifs de quatre jours, GenIAles permet aux femmes de découvrir les usages professionnels de ces outils et de briser la barrière de la complexité technique.

D'autres acteurs historiques comme Ada Tech School continuent de jouer un rôle crucial. Cette école de l'informatique inclusive propose les bourses Lovelace, qui financent neuf mois de formation intensive à la programmation, spécifiquement dédiées aux femmes en reconversion professionnelle. En parallèle, le collectif Femmes@numérique œuvre pour la visibilité et l'orientation des femmes vers les métiers du numérique. Ces initiatives rappellent que la diversité ne se décrète pas, elle se construit par l'éducation et l'accès au savoir technique. En donnant aux femmes les clés pour comprendre et construire l'IA, on leur donne le pouvoir de ne plus subir son fonctionnement.

360 millions d'euros et 10 000 femmes : le pari de la France

Les initiatives privées sont soutenues par une volonté politique forte de la part des institutions françaises et européennes. La Région Île-de-France, par exemple, a lancé le fonds « FemTech Île-de-France », qui se revendique comme le premier dispositif européen de soutien à l'innovation en santé numérique au féminin. Ce type de fonds est vital car il adresse directement le problème du financement mis en lumière par Rana el Kaliouby en offrant un capital dédié aux projets portés par des femmes.

À une échelle nationale, le plan « IA Clusters » dans le cadre de France 2030 représente un investissement massif de 360 millions d'euros. Ce plan ne se contente pas de subventionner la recherche ; il intègre des objectifs sociaux ambitieux, avec la volonté de former 10 000 femmes chaque année aux métiers de l'IA. Récemment, en mars 2025, l'initiative Women in Stem Europe a été lancée par Angélique Gérard et Léna Touchard. Leur ambition est de taille : sensibiliser 30 000 femmes en un an et former 1 000 femmes aux fondamentaux de l'IA, ainsi que 300 étudiantes aux compétences transversales (soft skills). Ces montants et ces objectifs chiffrés montrent que la France prend le sujet au sérieux, tentant de rattraper le retard accumulé par une action publique massive et ciblée.

Ce que préconise l'ONU pour une IA plus juste

Pour que ces efforts portent leurs fruits, il est essentiel de ne pas reproduire les erreurs du passé. Zinnya del Villar, experte auprès de l'ONU Femmes, insiste sur la nécessité d'une approche systémique pour corriger les biais sexistes de l'IA. Sa recommandation principale est radicalement simple en apparence mais complexe à mettre en œuvre : les données utilisées pour entraîner les systèmes d'IA doivent être diversifiées et représenter fidèlement tous les sexes, toutes les races et toutes les communautés.

Cela implique de repenser la collecte de données, souvent biaisée dès le départ, mais aussi de revoir la composition des équipes de développement. Une IA ne peut pas être impartiale si elle est conçue uniquement par des hommes issus du même milieu social. L'ONU préconise donc des équipes de développement mixtes, reflétant la diversité de la population mondiale. C'est en intégrant des femmes, des personnes racisées et des profils variés au cœur du processus de création que l'on peut espérer construire une IA qui serve tout le monde, et non seulement une élite masculine. La diversité n'est pas un luxe ou une contrainte morale ; c'est une garantie technique de qualité et de robustesse des algorithmes.

Conclusion

En somme, l'analyse de Rana el Kaliouby met en lumière une menace réelle et immédiate pour l'autonomie économique des femmes à l'ère de l'intelligence artificielle. Les chiffres sont implacables : que ce soit en termes de levée de fonds, de représentation technique ou de richesse accumulée, les femmes sont actuellement écartées de la principale révolution économique de notre époque. Le mécanisme de « boys' club », fondé sur la cooptation et les réseaux informels, agit comme un multiplicateur d'inégalités, transformant les préjugés en inégalités mathématiques. Pourtant, la situation n'est pas désespérée. De la riposte française avec ses millions d'euros investis et ses milliers de femmes formées, aux recommandations de l'ONU pour des données diversifiées, les solutions existent. L'urgence est d'agir maintenant, avant que les structures de pouvoir de l'IA ne se solidifient durablement. La richesse et la technologie se méritent, mais elles se construisent aussi par une volonté collective de ne laisser personne de côté.

As-tu aimé cet article ?

Questions fréquentes

Quelle part des fonds IA va aux femmes ?

Aux États-Unis en 2023, les entreprises comptant au moins une femme fondatrice n'ont récolté que 15,38 % des 23,5 milliards de dollars investis dans l'IA.

Les assistants vocaux sont-ils sexistes ?

Oui, l'ONU note que des voix féminines sont souvent attribuées par défaut à ces assistants, ce qui associe les femmes à des rôles de service et de soumission.

Quels biais touchent ChatGPT ?

Une étude de l'UNESCO montre que ces modèles associent les noms féminins à la maison ou la famille, tandis que les noms masculins sont liés à la carrière ou au salaire.

Qui est Rana el Kaliouby ?

C'est une pionnière de l'IA, co-fondatrice d'Affectiva et investisseuse, qui alerte sur les inégalités de financement entre les hommes et les femmes dans la tech.

La France forme-t-elle les femmes à l'IA ?

Oui, le plan France 2030 vise à former 10 000 femmes par an aux métiers de l'IA, et des initiatives comme GenIAles proposent des formations gratuites.

Sources

  1. Boys' club — Wikipédia · fr.wikipedia.org
  2. challenges.fr · challenges.fr
  3. free-work.com · free-work.com
  4. Le Boys Club ou sortir de l'entre-soi masculin - Hétéroclite · heteroclite.org
  5. linkedin.com · linkedin.com
pro-gamer
Théo Verbot @pro-gamer

L'esport, c'est ma vie. Je suis tous les tournois, je connais les rosters par cœur, je peux t'expliquer la méta actuelle de n'importe quel jeu compétitif. Étudiant en marketing du sport à Paris, je rêve de devenir commentateur esport professionnel. En attendant, je cast des tournois amateurs sur Twitch et j'analyse les matchs comme d'autres analysent le foot. Le gaming, c'est du sport. Point.

77 articles 0 abonnés

Commentaires (6)

Connexion pour laisser un commentaire.

Chargement des commentaires...

Articles similaires