L’IA est peut-être déjà votre manager mais vous ne le savez pas

🔍 Bullshit Détecteur Mai 2026 — lecture ~12 min

« L’IA va manager vos équipes » :
le grand récit qui cache ce qui se passe déjà

Depuis 2022, un discours s’est imposé dans les médias managériaux : l’IA sera bientôt chef d’entreprise, coach de dirigeant, membre de conseil d’administration. Fascinant. Futuriste. Et suffisamment vague pour éviter la seule question qui compte : que se passe-t-il pour les millions de travailleurs déjà gérés par des algorithmes, aujourd’hui, maintenant ?


Le discours ambiant (celui qu’on va décortiquer)

Voici les titres que vous avez lus ces dix-huit derniers mois :

  • « Cette entreprise a nommé une IA PDG — et les actionnaires l’approuvent »
  • « Zuckerberg veut un avatar IA pour le remplacer en réunion »
  • « L’IA siège au conseil d’administration de ce fonds de capital-risque »
  • « Le coach IA va révolutionner le développement managérial »
  • « Les entreprises gérées par IA sont plus performantes »

Derrière chacun de ces titres : un fait réel, une extrapolation massive, et un angle mort soigneusement préservé. Prenons-les un par un.


Anatomie de cinq figures — ce qu’on dit vs ce qui est

CE QU’ON DIT CE QUI EST

🪞 L’avatar du dirigeant

Dit : Zuckerberg, Altman — les dirigeants se clonent pour démultiplier leur présence décisionnelle.

Est : Une stratégie de personal branding déguisée en innovation managériale. L’avatar fige le dirigeant à l’instant T de son entraînement — momification décisionnelle, pas délégation. Qui assume quand ça déraille ?

CE QU’ON DIT CE QUI EST

🤖 L’IA CEO

Dit : NetDragon Websoft nomme une IA PDG. Le cours monte de 10%. Preuve d’efficacité.

Est : Un signal de communication financière, pas un transfert de pouvoir réel. Dictador (rhum polonais) fait pareil avec un robot humanoïde. Les décisions stratégiques restent humaines. Ce que le marché récompense : la promesse d’optimisation, pas sa réalité.

CE QU’ON DIT CE QUI EST

🏪 L’entreprise gérée par IA

Dit : Des boutiques et PME entièrement pilotées par IA : stocks, RH, pricing, tout automatisé.

Est : Ça fonctionne en régime nominal. Au premier litige atypique, crise client émotionnelle ou rupture de stock cascadée : boucle ou escalade vers personne. Le problème du dernier kilomètre décisionnel — l’humain de garde n’a plus le contexte.

CE QU’ON DIT CE QUI EST

🏛️ L’IA au conseil d’administration

Dit : VITAL (2014, VC biotech) est le premier algorithme « membre » d’un board. Révolution de gouvernance.

Est : Un mur juridique total. En droit français (et continental) : pas de responsabilité pénale possible, pas de consentement civil, pas de patrimoine engageable. Ce qui émerge vraiment : le modèle « explain or comply » — le board vote mais doit justifier tout écart aux recommandations IA.

CE QU’ON DIT PLUTÔT VRAI

🎯 Le coach IA

Dit : BetterUp, CoachHub, Torch — l’IA va révolutionner le développement managérial.

Nuance : C’est le cas d’usage le plus solide — à condition d’être hybride. L’IA questionne sans ego, est disponible 24/7, trace les patterns comportementaux. Elle ne remplace pas la relation transformationnelle humaine. Risque réel : coaching de surface, amélioration du discours sans changement comportemental.


L’angle mort total : l’IA manage déjà des millions de personnes

Et personne n’en parle dans les conférences sur « le futur du travail ».

Pendant qu’on débat du CEO IA de NetDragon, plusieurs millions de livreurs, chauffeurs VTC et travailleurs de plateforme sont gérés depuis dix ans sans aucun manager humain. Uber, Deliveroo, DoorDash, Bolt. Algorithme d’allocation des tâches, évaluation automatique, sanctions sans appel, pricing opaque. C’est le management algorithmique — et c’est la forme la plus avancée, la plus déployée, et la plus silencieuse d’IA managériale.

Duggan et al. (2020) le définissent comme « un système de contrôle où des algorithmes auto-apprenants se voient confier la responsabilité de prendre et d’exécuter des décisions affectant le travail, limitant ainsi l’implication et la supervision humaine. » Ce qui disparaît avec le manager humain : la protection, la négociation, le sens. Ce qui reste : le contrôle pur.

📊 Ce que disent les recherches récentes

  • Chez Uber, quand la part de la plateforme augmente, les tarifs augmentent — mais les chauffeurs gagnent moins par minute travaillée en valeur absolue (Binns et al., 2025, FAccT).
  • Chez Deliveroo (Italie, Irlande), les coursiers développent une « désobéissance conforme » — des stratégies de manipulation du système qui, paradoxalement, boostent les performances de la plateforme (Gandini & Pais, 2024, Organization).
  • Chez Amazon (entrepôts), l’algorithme a été utilisé comme « electronic whip » — quotas ajustés en temps réel — et comme outil de surveillance anti-syndicale, selon une étude de Northwestern University (Wiggin, 2025).
  • BCG (2025) identifie un « silicon ceiling » : seule la moitié des travailleurs de première ligne utilise régulièrement des outils IA, creusant un fossé interne entre dirigeants augmentés et exécutants contrôlés.

Le paradoxe central : l’IA managériale la plus avancée est aussi la plus brutale. Elle est déployée sur les travailleurs les moins protégés, dans des entreprises qui n’ont pas de DRH pour les coursiers, pas de délégués syndicaux pour les chauffeurs. Ce n’est pas un futur spéculatif. C’est le présent documenté.


Amazon et l’inversion du scénario : ce n’est pas l’ouvrier qui disparaît en premier

Tout le monde attendait le scénario classique : les robots remplacent les manutentionnaires. Amazon a surpris tout le monde en octobre 2025 en annonçant la suppression de 14 000 postes de managers intermédiaires, suivie de 16 000 suppressions supplémentaires en janvier 2026. Motif officiel : « réduire la bureaucratie, supprimer les couches organisationnelles ».

L’économiste Lynn Wu (Wharton) l’analyse clairement : c’est un « vidage des travailleurs à qualification intermédiaire ». Les emplois physiques non délocalisables résistent (pour l’instant). Les emplois hautement qualifiés (développement IA, robotique) restent en demande. C’est le middle qui s’effondre.

📉

Projection Gartner

D’ici 2026, une organisation sur cinq utilisera l’IA pour éliminer au moins la moitié de ses couches managériales. Ce chiffre, avancé par Gartner, doit être lu pour ce qu’il est : non pas une prédiction sur le management comme pratique, mais sur le management comme couche organisationnelle de coordination. Ce qui disparaît, c’est le manager-courroie-de-transmission. Ce qui reste à définir : le manager-arbitre-de-l’exception.

Mais voici la vraie contradiction : une étude IESE (Alekseeva et al., 2025) montre simultanément que l’IA augmente la demande de managers. Pourquoi ? Parce que les entreprises doivent coordonner équipes humaines ET systèmes IA, interpréter les outputs algorithmiques, superviser leur alignement avec les objectifs organisationnels. Ce n’est pas le même manager. C’est un profil radicalement différent : moins coordinateur, plus interprète et arbitre.


Ce que tout ça révèle sur le management lui-même

La vraie raison pour laquelle l’IA ne sera pas un bon manager — pas parce qu’elle manque d’intelligence, mais parce qu’elle manque d’engagement — tient en trois arguments que le discours dominant esquive systématiquement.

1. Le management est un acte politique. Décider de licencier quelqu’un, arbitrer un conflit entre deux DG, pivoter sur une intuition de marché : ce sont des actes qui produisent des gagnants et des perdants. Quelqu’un doit assumer cette asymétrie. L’IA optimise — elle ne s’engage pas. Elle peut recommander, jamais porter la responsabilité. Si l’IA influence réellement les décisions du board sans en porter la responsabilité juridique, on crée un décideur fantôme — transparent en droit, puissant en fait. C’est le schéma des algorithmes de trading systémique : personne n’est responsable du krach flash.

2. La confiance managériale est asymétrique. Un manager choisit de faire confiance à un collaborateur malgré le risque. Ce choix a de la valeur précisément parce qu’il pourrait être refusé. Une IA applique une règle — elle ne choisit pas. Cette distinction n’est pas philosophique : elle structure la relation de travail et le sens que les collaborateurs lui attribuent.

3. La légitimité contestée n’a pas de destinataire algorithmique. Si un collaborateur refuse une décision, il peut négocier avec un manager humain. Avec une IA, la contestation n’a pas de destinataire — c’est l’algorithme, donc personne, donc tout le monde, donc personne. C’est précisément ce que documentent les recherches sur Amazon : les travailleurs ne contestent plus, ils hackent le système. Ce n’est pas de la résistance — c’est de l’adaptation à une absence.

📌 Work Trend Index Microsoft — données avril 2026

Enquête sur 20 000 travailleurs dans 10 marchés (dont la France) : les managers sont deux fois plus susceptibles que leurs collaborateurs de déclarer que la réinvention du travail avec l’IA est récompensée même en cas d’échec (21% vs 10%). L’IA ne remplace pas le manager — elle révèle sa qualité. Un bon manager devient multiplicateur d’IA. Un manager médiocre devient obsolète plus vite. La technologie n’est pas neutre : elle amplifie les écarts existants.


Et les agents IA verticaux dans tout ça ?

C’est ici que la question change de nature. La vraie évolution n’est pas l’IA qui remplace le manager — c’est l’agent IA vertical qui augmente des fonctions managériales précises, dans un périmètre défini, avec une supervision humaine explicite.

Un agent IA vertical n’est pas un CEO artificiel. C’est un système entraîné sur un domaine précis — analyse de performance équipe, préparation d’entretiens individuels, détection de signaux faibles de désengagement, simulation de scénarios RH — qui opère avec des données réelles, dans un contexte organisationnel spécifique, et rend compte à un humain qui décide.

C’est précisément ce que j’explore avec Emma, l’agent IA vertical que je développe et documente sur ce site — une approche radicalement différente du discours sur l’ »IA CEO ». Pas de substitution, pas de cosmétique : une augmentation ciblée, traçable, avec des garde-fous explicites sur ce que l’agent ne décide pas.

La ligne de fracture entre « agent IA utile » et « IA managériale toxique » tient à trois critères :

  • La lisibilité du périmètre : que décide l’agent, que recommande-t-il, que transmet-il à un humain ?
  • La traçabilité de la décision finale : qui a réellement décidé, et peut-on le contester ?
  • L’asymétrie de protection : le système protège-t-il le travailleur autant qu’il protège l’organisation ?

Ce que ça change concrètement — pour les managers, pour les étudiants

Si vous êtes manager aujourd’hui : votre valeur n’est plus dans la coordination et le reporting — l’IA le fait mieux et moins cher. Elle est dans les trois fonctions que l’IA ne peut pas assumer : l’engagement (assumer une décision risquée), la légitimité (être contestable), et la signification (donner du sens à ce qui résiste aux métriques). Si vous ne développez pas ces trois dimensions, vous entrez dans la zone d’obsolescence documentée par les licenciements Amazon.

Si vous formez des managers (Master, MAE, executive) : enseigner le management sans intégrer la dimension des agents IA et du management algorithmique, c’est former pour un monde qui a déjà partiellement disparu. Les programmes qui continuent à traiter l’IA comme un « outil parmi d’autres » produisent des diplômés sans carte pour naviguer dans des organisations où l’IA structure déjà les processus de recrutement, d’évaluation et d’allocation.

Si vous êtes travailleur de plateforme ou responsable RH : le management algorithmique n’est pas une question futuriste. C’est un enjeu juridique, social et organisationnel actif. La directive européenne sur le travail de plateforme (adoptée en 2024) impose désormais une transparence minimale sur les décisions algorithmiques — c’est un début de régulation d’un phénomène qui existe depuis dix ans.


⚖️ Verdict — Bullshit-o-mètre

« L’IA va manager vos équipes » : mi-bullshit, mi-angle mort

Ce n’est pas faux — c’est incomplet d’une manière qui n’est pas innocente. Le discours sur l’ »IA CEO » et l’ »avatar dirigeant » est du bullshit de communication : spectaculaire, futuriste, déconnecté des enjeux réels. Il capte l’attention en évitant la question qui dérange — celle des millions de travailleurs déjà contrôlés, évalués et sanctionnés par des algorithmes, sans recours, sans négociation, sans manager humain pour assumer.

La vraie question n’est pas « l’IA sera-t-elle un bon manager ? » — c’est : quand l’IA manage déjà, qui est responsable de ce que ça produit ? Et tant qu’on continuera à débattre d’avatars de Zuckerberg plutôt que de conditions des coursiers Deliveroo, la réponse restera : personne.

Cet article mobilise des sources académiques récentes (Binns et al. 2025, Gandini & Pais 2024, Wiggin 2025, Alekseeva et al. 2025) ainsi que des données institutionnelles (Microsoft WTI 2026, BCG 2025, Gartner 2025). Il a été rédigé avec l’assistance de Claude (Anthropic). Les interprétations et positions exprimées sont celles de l’autrice.

Laisser un commentaire

En savoir plus sur Maria Mercanti-Guérin

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture