Femmes et IA : retard inquiétant ou prudence justifiée ?
Nouveau Départ, Nouveau Travail #81 | Laetitia Vitaud
✍️ Nouveau Départ, Nouveau Travail. Voici un nouvel article de ma série “Nouveau Départ, Nouveau Travail” où je partage, par écrit, des réflexions sur les mutations du travail, inspirées par l’actualité, des expériences vécues ou mes lectures du moment. Je me suis fixé le défi de vous proposer des articles courts et percutants 💡
Selon une méta-analyse de la Harvard Business School portant sur plus de 140 000 personnes dans le monde, les femmes utiliseraient les outils d’IA générative 22 % moins souvent que les hommes. Sur les plateformes elles-mêmes, les données sont encore plus parlantes : les femmes ne représentent que 42 % des visiteurs du site ChatGPT, et seulement 31 % des utilisateurs d’Anthropic…
Cet écart n’est pas un phénomène isolé. Il traverse les continents, les secteurs d’activité et les niveaux d’éducation. Des étudiantes aux scientifiques mondiales, en passant par les entrepreneures, la tendance est quasi universelle et mondiale. Alors, comment l’expliquer ? Et surtout, comment l’interpréter ?
Un double standard qui coûte cher
La première raison de cet écart est peut-être la plus concrète : les femmes ont davantage à perdre à être soupçonnées d’utiliser l’IA. Une étude citée dans la Harvard Business Review a soumis à des évaluateurs des lignes de code identiques, présentées tantôt comme le travail d’un homme assisté par IA, tantôt comme celui d’une femme. Résultat : les femmes ont reçu des notes de compétence 13 % plus basses que les hommes pour un travail absolument identique. Les évaluateurs masculins étaient particulièrement sévères, pénalisant les ingénieures 26 % plus que leurs collègues masculins.
Une enquête Lean In confirme ce phénomène. Les femmes sont 32 % plus susceptibles que les hommes de craindre d’être vues comme des « tricheuses » parce qu’elles utilisent l’IA au travail. Elles ne sont pas folles et cette crainte ne vient pas de nulle part. Les femmes interrogées disent être beaucoup moins souvent félicitées que leurs homologues masculins quand elles utilisent ces outils. « Ce qui ressemble à une simple réticence face à un nouvel outil reflète en réalité une stratégie d’autoprotection », concluent les chercheurs. Autrement dit, les femmes ne boudent pas l’IA par peur du changement. C’est comme un effet Matilda numérique. Il est donc possible aussi que les femmes aient plus de mal à admettre qu’elles utilisent l’IA quand elles l’utilisent…
Des outils pensés par et pour les hommes ?
Il y a une deuxième explication. Les outils d’IA générative ont été conçus largement sans les femmes. Les équipes d’ingénieurs qui ont développé ces modèles sont très majoritairement masculines. Les discussions qui ont encadré leur déploiement se sont faites sans elles. Et par-dessus le marché, les données d’entraînement qui ont façonné leur vision du monde ne représentent que très peu les femmes.
Cette sous-représentation féminine a pour conséquence que les outils sont moins pertinents pour les utilisatrices et perpétuent des biais genrés dommageables aux femmes. Une étude allemande a montré que des chatbots d’IA conseillaient aux femmes de négocier des salaires inférieurs. Les réponses des IA sur des sujets professionnels ou financiers tendent à adopter un point de vue masculin par défaut. Or quand on comprend que l’outil vous répond à côté, on l’utilise moins.
Et tout cela se transforme en cercle vicieux. Si les femmes sont sous-représentées parmi les utilisateurs de l’IA, elles le seront aussi dans les données qui serviront à entraîner les prochaines versions de ces modèles. Les systèmes deviendront alors de moins en moins adaptés à leurs besoins. L’écart risquerait alors de se creuser davantage.
Les femmes subissent les erreurs de l’IA
Il existe une troisième réalité, presque jamais mentionnée : dans de nombreux environnements de travail, ce sont les femmes qui passent le plus de temps à corriger les erreurs produites par l’IA. Les postes administratifs et de support, majoritairement féminins, sont souvent en première ligne pour relire, reformuler et fiabiliser les contenus générés automatiquement. Celles qui « nettoient » le travail de l’IA savent où se situent réellement les gains de productivité. Une conscience accrûe des limites de ces outils conduit à modérer l’enthousiasme pour leur utilisation.
Plus généralement, il pourrait y avoir chez les femmes une sensibilité (acquise) plus marquée aux effets systémiques de la technologie. Selon la méta-analyse de Harvard mentionnée plus haut, parmi les personnes préoccupées par l’impact environnemental de l’IA, l’écart d’utilisation entre femmes et hommes est encore plus élevé. Encore plus parmi celles qui s’inquiètent des effets sur la santé mentale. Une requête à ChatGPT consomme près de dix fois plus d’électricité qu’une recherche Google, selon les estimations de l’Agence internationale de l’énergie. Tenir compte de cet impact est salutaire.
Rester à quai n’est pas sans danger non plus
Pour autant, cet écart n’est pas sans conséquences. Il serait dangereux de le romantiser en présentant les femmes comme plus « vertueuses ». L’Institut Brookings estime que 86 % des travailleurs dont les emplois sont les plus exposés à l’automatisation sont des femmes, dans des postes administratifs et fonctions de support. Ce sont donc les premières menacées par l’IA.
🔔 Vous appréciez les articles Nouveau Départ, Nouveau Travail ? En particulier ceux qui parlent des femmes ? Alors abonnez-vous aussi à la newsletter Vieilles en puissance pour deux articles originaux chaque mois. Caroline Taconet (dessinatrice) et moi y abordons des thèmes qui mêlent âge, genre, argent et culture. Les « Vieilles en puissance », c’est nous, d’abord parce que nous espérons devenir vieilles un jour, et ensuite, parce que nous aimerions trouver notre puissance à ce moment-là ! 💪
Les salariées qui restent à l’écart des IA pourraient se trouver doublement pénalisées, d’abord par l’automatisation de leur poste, ensuite par l’absence de gains de productivité qui leur permettraient d’évoluer. L’enjeu économique est considérable. Un écart d’utilisation persistant de 25 % pourrait représenter des centaines de milliards de dollars de productivité perdue, des richesses que les femmes n’auraient pas créées, des innovations qu’elles n’auraient pas portées.
Ce que cet écart nous dit
Qu’est-ce que l’hésitation des femmes nous révèle sur la technologie elle-même ? Celles qui résistent ou qui font preuve de sélectivité nous signalent des biais réels, des inégalités de traitement et des angles morts dans la conception de ces outils.
La réponse ne peut donc pas reposer uniquement sur les individus. Elle exige que les entreprises forment leurs managers à reconnaître et encourager équitablement l’usage de l’IA, que les développeurs de ces technologies prennent enfin au sérieux la diversité dans leurs équipes et dans leurs données, et que les politiques publiques s’emparent de la question avant que l’écart ne devienne irréversible.
Arrêtons de dire qu’il faut « corriger » les femmes et corrigeons plutôt les systèmes qui les pénalisent !
Le média de la transition
“À deux voix”, nos conversations à bâtons rompus sur l’actualité
Des interviews de personnalités remarquables (écrivains, entrepreneurs…)
Des articles sur le travail et l’économie
Une vision engagée, des clefs pour aller au fond des choses
Nos abonnés : des professionnels et citoyens engagés
Des nouvelles de nos travaux et de nos projets





