✍️ Nouveau Départ, Nouveau Travail. Voici un nouvel article de ma série “Nouveau Départ, Nouveau Travail” où je partage, par écrit, des réflexions sur les mutations du travail, inspirées par l’actualité, des expériences vécues ou mes lectures du moment. Je me suis fixé le défi de vous proposer des articles courts et percutants 💡
Depuis une quinzaine d’années, le mot d’ordre est clair : il faut être data-driven. Pas simple à traduire en français, disons « piloté par les données ». L’idée n’est pas complètement nouvelle : elle prolonge les grandes révolutions managériales du XXe siècle. Mais avec la Silicon Valley et son fameux software is eating the world, tout a pris une nouvelle ampleur. Puisque tout est désormais numérisé, il y aurait des données partout, sur tout, et donc une opportunité inédite de rationaliser tous nos choix. La promesse ? Un monde plus rationnel, plus efficace, plus performant.
Dans l’entreprise, dans la culture, le marketing ou les ressources humaines, le refrain est partout le même : les données vont nous permettre de « décider mieux ». La donnée, c’est l’or noir du XXIe siècle : celui qui sait la collecter et l’exploiter aura une longueur d’avance, nous dit-on depuis l’explosion des smartphones et des réseaux sociaux.
Mais cette promesse pourrait avoir largement été surestimée. En effet, beaucoup de données sont en réalité sans grande valeur ; disons-le franchement : ce sont des données de merde. Pire encore, les décisions qu’on prétend en tirer sont souvent mal interprétées. L’ironie, c’est que ce processus censé incarner le sérieux et la rigueur débouche souvent sur de la médiocrité, de l’indécision… et une fadeur algorithmique qui nous fait produire encore plus de données sans valeur.
Les données sont des traces fragiles
L’idée de départ est séduisante : les utilisateurs laissent partout des traces numériques – clics, likes, partages, temps de visionnage, parcours de navigation – et ces données permettraient de comprendre ce qu’ils veulent, aiment ou attendent. Mais dès qu’on gratte un peu, le mythe s’effondre. Un clic n’est pas une préférence. Un like n’est pas une adhésion. Un temps de visionnage n’est pas une preuve de satisfaction. Souvent, il ne s’agit que de réactions automatiques, de gestes mécaniques posés dans un état d’attention fragmentée et de frustration latente.
Beaucoup d’utilisateurs en ligne se comportent en « zombies numériques » (moi la première, hélas) : ils cliquent sans savoir pourquoi, font défiler sans désir, binge-watchent sans plaisir. Les plateformes captent donc moins des choix que des dérives cognitives. La donnée, censée refléter un goût ou un désir, enregistre très souvent des moments d’errance, de fatigue ou d’habitude.
Déjà, au début des années 2010, on ironisait sur la faible valeur d’un like Facebook (un « engagement » bien faible). Mais aujourd’hui, le problème s’est aggravé : dans un monde saturé de contenus copiés-collés de chatGPT sur des plateformes « merdifiées », les signaux numériques sont encore plus appauvris. Ce que nous voyons n’est plus une expression authentique des individus, mais un bruit de fond.
Quand la donnée alimente la médiocrité
Lorsqu’un film cartonne sur Netflix, les interprétations peuvent diverger. On peut conclure : « Ce film a marché parce que c’est un film d’action avec plein d’explosions, donc continuons dans cette veine » – ou bien : « Il a séduit parce que son personnage principal est une femme d’âge mûr avec des dialogues intelligents – donnons plus de dialogue à ces figures ».
Fondamentalement, l’un des problèmes, notamment dans le monde de la culture, c’est que les données restent des indicateurs du passé, et qu’il est extraordinairement difficile de capturer le Zeitgeist – ce climat social, émotionnel ou culturel qui, demain, fera vibrer le public. Le Guardian illustre cela avec le cas du film The Electric State, l’une des productions les plus coûteuses de Netflix (320 M$), qui a pourtant sombré dans l’anonymat dès sa sortie, incarnant la logique du « film-algorithme » : un produit conçu pour plaire au plus grand nombre, mais dépourvu d’âme et d’aspérité.
l’explosion des données n’a fait qu’intensifier les vieux problèmes d’Hollywood : comment convaincre les cinéastes, et même les propres responsables créatifs des plateformes, de faire confiance à ces données pour orienter des choix artistiques ? Une partie du problème tient à l’interprétation utile de ce tourbillon de chiffres. Les différents indicateurs, et l’importance qui leur était accordée, changeaient sans cesse, raconte un ancien cadre de Netflix. « J’ai eu plus de managers que je ne peux en compter, et les critères de succès changeaient tout aussi souvent. On peut avoir tous les indicateurs qu’on veut, ça ne veut pas dire qu’on prend de meilleures décisions ou qu’on crée des contenus plus aimés. » Les dirigeants peuvent aussi interpréter sélectivement les données pour favoriser leurs propres projets, explique un producteur ayant supervisé une série de films pour Netflix. En communication externe, l’entreprise met en avant le caractère unique et sophistiqué de son algorithme ; en interne, pourtant, chacun continue de chercher à imposer ses propres préférences et passions.
L’affadissement de la création s’incarne dans des productions « faciles à suivre, pour les fans de tout » et reflète une stratégie de maximisation de l’attention fragmentée. Dans un contexte de consommation partielle et distraite, le défi créatif s’efface face au besoin de confort esthétique. Résultat : des œuvres produites à l’abri du risque, lisses et interchangeables. Le film est « regardable », mais oubliable, et la donnée n’est qu’un prétexte pour en justifier la fadeur.
Le cercle vicieux est ici évident :
des données pauvres, mal interprétées…
produisent des décisions frileuses…
qui engendrent des contenus plats…
et génèrent des comportements d’attention encore plus pauvres et des données de plus en plus pauvres ou mal interprétées.
Les IA médicales ne comprennent pas
Il y a bien un domaine où les cas d’usage sont convaincants et utiles et les promesses sont grandes, c’est en médecine. Une montagne de données nous promet une meilleure santé à l’avenir. Pourtant, même là, les choses ne sont pas si évidentes que ça, comme on peut le lire dans cet article consacré à l’échec de l’IA en radiologie.
L’IA appliquée à la radiologie semblait être le terrain parfait pour démontrer la puissance du “data-driven”. Des millions de radios et de scanners sont produits chaque année, constituant un riche gisement de données médicales. Les premiers modèles ont d’ailleurs été plutôt performants sur des cas standardisés : détecter une hémorragie cérébrale sur un scanner, mesurer un nodule pulmonaire, ou signaler une anomalie urgente dans une pile d’examens. Mais très vite, le rêve s’est heurté au mur des pratiques réelles. Les comptes rendus radiologiques sont truffés de formulations prudentes comme « ne peut être exclu » ou « suivi recommandé », des tournures héritées de décennies de prudence médico-légale. Pour un algorithme, cette « langue de précaution » est un casse-tête : il finit par voir des urgences partout, incapable de distinguer ce qui relève de la précaution juridique ou du risque clinique réel.
La radiologie est pleine d’exceptions. L’IA excelle sur les 90 % de cas fréquents, mais c’est le reste — les cas rares, atypiques, improbables — qui fait la différence en médecine. Un radiologue humain, grâce à son expérience, peut reconnaître l’inattendu, improviser un raisonnement sur un cas qu’il n’a jamais vu (un traumatisme particulier, une pathologie rarissime). L’algorithme, lui, reste prisonnier de son entraînement : il ne voit que ce qu’il a appris à voir. On touche ici à une limite structurelle : les données du passé, même très abondantes, ne suffisent pas à couvrir l’infini du réel. On se retrouve avec des modèles performants en laboratoire mais inutilisables au quotidien, des promesses fracassantes suivies d’échecs discrets et peu documentés.
L’illusion consiste à croire que les données, seules, pouvaient « piloter » une activité aussi complexe que la médecine, alors qu’elles ne sont qu’un point de départ à interpréter avec prudence et intelligence humaine.
Quand la data n’apporte pas grand-chose de nouveau
On nous vante souvent les promesses de la data et de l’analytique avancée pour « révéler des vérités cachées » sur nos comportements. Mais bien souvent, après avoir collecté des masses de données, déployé des capteurs et mobilisé des équipes entières de data scientists, les résultats se résument à des évidences.
Exemple : une entreprise qui analyse les données de badgeage de ses salariés découvre que, quand il pleut, les employés sortent moins à l’extérieur le midi. Ou qu’ils consomment plus de café le matin que l’après-midi. Ou encore que la fréquentation des salles de réunion baisse en période de vacances scolaires. Tout ça pour ça ?
Ce paradoxe – l’écart entre l’investissement technique et la pauvreté des « insights » – a déjà été pointé par Laszlo Bock, ancien DRH de Google, dans son livre Work Rules!. Chez Google, malgré des moyens colossaux dédiés à la recherche en people analytics, les conclusions les plus utiles ont parfois été… les plus banales. Exemple : les managers jouent un rôle essentiel dans l’engagement des équipes.
Voyez aussi ce tweet amusant à propos des insights générés par les datas de WeWork.
Pourquoi l’approche data-driven continue-t-elle d’être perçue comme si « sérieuse » ?
Trop souvent, les données servent à justifier après coup des décisions déjà prises, plutôt qu’à les éclairer. Dans les comités de direction, personne n’ose remettre en cause un tableau de KPI : des graphiques et des chiffres deviennent alors le signe ostentatoire d’une rationalité supposée, même si, derrière eux, se cachent des choix de collecte arbitraires, des biais d’interprétation et des intérêts idéologiques et politiques.
Le problème n’est pas la donnée en elle-même, mais le fétichisme dont elle fait l’objet. Derrière le vernis du « data-driven » il y a une illusion d’objectivité et une manière de masquer l’arbitraire. Les datas reflètent nos angles morts, nos obsessions et nos biais. Croire qu’ils peuvent trancher à notre place, c’est condamner nos décisions à la standardisation ou aux compromis mous.
Quand la donnée est immédiatement utile et de grande qualité, elle coûte cher à produire : elle suppose un environnement fermé, contrôlé, où l’on sait précisément ce qu’on mesure et pourquoi. Mais dans les environnements ouverts, on brasse surtout des données de piètre qualité, incomplètes, biaisées, parfois même gonflées d’« hallucinations ». Le danger, c’est de traiter ce bruit comme s’il s’agissait d’un savoir solide, et de polluer les rares données vraiment précieuses avec des torrents de datas douteuses.
En général, pour que la donnée devienne utile, il faut la replacer dans une démarche humble et critique. Son intérêt réside dans la confrontation avec des méthodes qualitatives, dans le dialogue avec des experts et dans la friction avec l’expérience humaine. C’est en croisant chiffres, observations de terrain et regards multiples que se dessinent des décisions plus justes et créatives.
📌 Petit rappel : je serai à la Librairie Eyrolles (Paris) le 29 septembre à 18h pour le lancement de mon livre L’atout âge.
Dans ce livre, je propose 64 clés concrètes pour transformer la diversité générationnelle en force, repenser le management et valoriser tous les âges au travail.
Une belle occasion d’échanger sur ces thèmes et de repartir avec un exemplaire dédicacé. Inscription ici 👇
Le média de la transition
“À deux voix”, nos conversations à bâtons rompus sur l’actualité
Des interviews de personnalités remarquables (écrivains, entrepreneurs…)
Des articles sur le travail et l’économie
Une vision engagée, des clefs pour aller au fond des choses
Nos abonnés : des professionnels et citoyens engagés
Des nouvelles de nos travaux et de nos projets