✍️ Nouveau Départ, Nouveau Travail. Voici un nouvel article de ma série “Nouveau Départ, Nouveau Travail” où je partage, par écrit, des réflexions sur les mutations du travail, inspirées par l’actualité, des expériences vécues ou mes lectures du moment. Je me suis fixé le défi de vous proposer des articles courts et percutants 💡
L'intelligence artificielle était censée révolutionner le recrutement en le rendant plus objectif et équitable. Pourtant, ce qui émerge depuis quelques années est quelque peu troublant : loin de démocratiser l'emploi, l'IA renforce l'âgisme de manière systémique et invisible. On appelle cela l’"IA-gisme". Il transforme les préjugés humains en algorithmes automatisés qui écartent massivement les travailleurs de plus de … 40 ans.
Une étude académique de 2023 menée par Charlene H. Chu et ses collègues, qui a analysé 74 documents sur les biais liés à l'âge dans l'IA, révèle l'ampleur du problème. Les chercheurs ont identifié neuf types de biais différents qui peuvent survenir à chaque étape du processus d'apprentissage automatique, de la collecte des données jusqu'au déploiement des algorithmes. Cette discrimination algorithmique ne relève plus de l'anecdote : elle devient un phénomène structurel qui menace l'égalité des chances dans l'emploi.
L'IA-gisme : un phénomène documenté
Le concept d'IA-gisme désigne l'extension de la discrimination liée à l'âge avec les IA. Selon l’étude citée plus haut, il se manifeste dans « la conception, le développement, le déploiement et l'évaluation des technologies », créant des systèmes d'IA qui « produisent, maintiennent ou amplifient les processus systémiques d'âgisme ».
Comme l'analyse Matteo Cellini dans le newsletter Work3 - The Future of Work, « pour une industrie qui ne cesse de prôner l'innovation et l'orientation vers l'avenir, la tech a un angle mort massif et persistant : l'âgisme ». Les statistiques sont éloquentes : l'âge moyen dans la tech américaine est de 38 ans contre 43 ans dans les autres secteurs. Chez Meta, l'âge médian chute à 28 ans, chez ByteDance à 27 ans.
Cette discrimination précoce frappe durement les travailleurs de la tech qui se sentent « vieux » dès la fin de la trentaine. La culture âgiste dans cet univers-là repose sur des mythes persistants : les travailleurs plus âgés ne seraient « pas bons en nouvelles technologies », « pas adaptables », « trop chers » ou pas des « culture fits ».
Tout cela est évidemment battu en brèche par la réalité. Les travailleurs expérimentés maîtrisent très bien les technologies (certain les ont conçues) et sont souvent plus performants. Mais les préjugés humains nourrissent désormais les algorithmes, créant une boucle de discrimination automatisée.
L'affaire Workday : quand l'algorithme devient juge
L'affaire Workday illustre parfaitement cette dérive. Derek Mobley, diplômé avec mention de Morehouse College et fort de près de dix ans d'expérience, a essuyé plus de 100 refus en sept ans sur cette plateforme. Un soir, il postule à 0h55 et reçoit un rejet à 1h50 : impossible qu'un humain ait examiné son dossier. Seul l'algorithme a tranché.
Avec quatre autres demandeurs d'emploi de plus de 40 ans, Mobley poursuit Workday en justice pour discrimination algorithmique. Utilisée par plus de 11 000 organisations mondiales, cette plateforme promet de « révolutionner l'embauche » grâce à son service « HiredScore AI » qui prétend utiliser une « IA responsable ». Mais les plaignants accusent l'algorithme de « disqualifier de manière disproportionnée les individus de plus de quarante ans ».
Les mécanismes de la discrimination algorithmique
L'IA n'a pas inventé pas la discrimination : elle l'a apprise et elle l'amplifie. L'étude de Chu identifie précisément comment ces biais se forment. Les systèmes sont entraînés sur des données historiques qui reflètent les préjugés existants. Si une entreprise emploie majoritairement des jeunes, l'algorithme en déduit que la jeunesse est un critère de performance.
La recherche révèle que le biais de représentation — les personnes âgées sont sous-représentées dans les données d'entraînement— touche 33 des 49 études académiques analysées. Les bases de données les plus utilisées (MORPH, FG-Net, Adience) sous-représentent massivement les adultes plus âgés. Pire, le biais d'agrégation regroupe tous les seniors dans des catégories fourre-tout comme « 60+ » alors que les jeunes bénéficient de tranches d'âge plus fines par décennie, effaçant ainsi la diversité des âges des personnes qui n’ont pas moins de 40 ans.
Cette distorsion initiale se propage ensuite : le biais de mesure fait que les algorithmes affichent des taux d'erreur plus élevés sur les données concernant les personnes âgées, créant un cercle vicieux de sous-performance algorithmique. Comme l'écrit Hilke Schellmann, autrice du livre The Algorithm, un système d'évaluation de CV peut favoriser le mot baseball plutôt que softball pour un poste sans rapport avec le sport, simplement parce que les données d'entraînement contenaient plus d'hommes mentionnant le baseball.
L'étude académique documente également un biais de contenu révélateur : l'analyse de sentiment sur des plateformes comme Twitter et Wikipedia montre que les termes liés au vieillissement ("vieux", "âgé", "senior") sont systématiquement associés à des connotations négatives, tandis que "jeune" s'accompagne d'associations positives.
Au-delà du recrutement : un problème systémique
L'âgisme algorithmique dépasse largement le recrutement. L'étude de Chu révèle que 20 applications d'IA différentes présentent des biais liés à l'âge, de la reconnaissance faciale aux analyses de crédit. Dans le domaine de la santé, les algorithmes sous-estiment régulièrement les risques des patients âgés, reproduisant les inégalités d'accès aux soins.
Cette discrimination systémique crée ce que les chercheurs appellent une « boucle de rétroaction négative ». Les personnes âgées, découragées par les rejets automatisés, utilisent moins les technologies numériques. Cette moindre présence en ligne réduit encore leur représentation dans les futures données d'entraînement, perpétuant le cycle d'exclusion.
Les implications sociétales sont majeures. L'amplification des associations négatives et des pratiques stigmatisantes contre les adultes plus âgés risquent de créer des « cycles technologiques d'injustice » dans une société vieillissante. Dans un monde où 1 personne sur 4 aura plus de 65 ans en 2100, cette discrimination algorithmique menace totalement l'équilibre social.
Vers une IA plus inclusive
Certaines équipes ont tenté de corriger les biais de représentation en rééquilibrant leurs bases de données ou en générant artificiellement des images de personnes âgées. Mais ces ajustements techniques ne suffisent pas : ils ne s'attaquent qu'aux symptômes, pas aux causes profondes.
L'enjeu dépasse la technique. Les chercheurs plaident pour une approche pluridisciplinaire combinant solutions techniques, changements réglementaires et évolution culturelle. Ils recommandent notamment d'inclure systématiquement les personnes âgées dans la conception des systèmes d'IA, non pas seulement comme utilisateurs mais aussi comme concepteurs.
La solution exige une prise de conscience collective et des actions concrètes :
Audit systématique des algorithmes : les organisations doivent régulièrement tester leurs outils d'IA pour détecter les biais âgistes.
Transparence algorithmique renforcée : les candidats doivent savoir quand une IA évalue leur dossier et selon quels critères.
Diversification des données d'entraînement : utiliser des jeux de données plus représentatifs et équilibrés pour entraîner les algorithmes, en évitant les catégories fourre-tout comme "60+".
Supervision humaine obligatoire : maintenir une intervention humaine qualifiée dans les décisions d'embauche, surtout pour les rejets automatiques rapides.
Participation des seniors à la conception : inclure systématiquement les personnes expérimentées dans le développement des systèmes d'IA.
Le média de la transition
“À deux voix”, nos conversations à bâtons rompus sur l’actualité
Des interviews de personnalités remarquables (écrivains, entrepreneurs…)
Des articles sur le travail et l’économie
Une vision engagée, des clefs pour aller au fond des choses
Nos abonnés : des professionnels et citoyens engagés
Des nouvelles de nos travaux et de nos projets
La technologie (d'échelle industrielle) est intrinsèquement hiérarchisante (pour ne pas dire fascisante : éliminer les vieux n'est-ce pas un eugénisme?), et elle ne recherche qu'une chose : l'efficacité. Envisager ce type de problème comme une erreur à corriger alors que c'est une conséquence normale, un "feature" même, c'est un voeu pieux. Un voeu que je comprends, mais j'ai arrêté l'optimisme là :)