Comment fonctionne le machine learning ? L’analogie du recruteur expérimenté pour tout comprendre

Pédagogie IA · Niveau débutant  ·  14 avril 2026  ·  9 min de lecture  ·  Analogie : le recruteur expérimenté

Votre meilleur responsable RH lit un CV en trente secondes et sait déjà. Pas parce qu’il applique une grille de critères. Parce qu’il a vu des milliers de profils — leurs réussites, leurs échecs. Son cerveau a appris, sans que personne ne lui ait jamais dicté la règle exacte.

Ce que ce recruteur fait naturellement, les chercheurs en informatique ont mis des décennies à l’enseigner aux machines. Ce processus a un nom : le machine learning.

Définition à 3 niveaux

Pour tout le monde

C’est quand on apprend à un ordinateur à reconnaître des choses — non pas en lui expliquant les règles, mais en lui montrant des milliers d’exemples jusqu’à ce qu’il comprenne tout seul.

Pour un manager

Le machine learning, c’est la capacité d’un algorithme à améliorer automatiquement ses performances sur une tâche en s’exposant à des données, sans qu’un programmeur lui code les règles une par une.

Définition académique

Le machine learning est un sous-champ de l’intelligence artificielle dans lequel des algorithmes construisent automatiquement des modèles prédictifs à partir de données, en optimisant une fonction objectif sans règles explicitement programmées (Samuel, 1959 ; Mitchell, 1997).

L’analogie-maîtresse : le recruteur expérimenté

Imaginez Marie, DRH dans un cabinet de conseil depuis quinze ans. Elle ne suit plus aucune grille de notation. Elle a vu passer des milliers de CV et des centaines d’entretiens. À chaque recrutement réussi, quelque chose s’est renforcé dans son jugement. À chaque erreur, quelque chose s’est ajusté. Aujourd’hui, elle lit un profil en trente secondes et sait.

Ce mécanisme — apprendre par l’exposition répétée à des exemples étiquetés (réussi / raté) — est exactement celui du machine learning.

Un algorithme de ML commence sans aucun flair. On lui soumet des données d’entraînement : dans notre analogie, des milliers de CV accompagnés de leur résultat connu. L’algorithme cherche des patterns statistiques — des corrélations entre les caractéristiques du CV et le résultat observé. Il ajuste ses paramètres internes à chaque exemple, comme Marie ajustait son jugement à chaque embauche.

Au bout d’un nombre suffisant d’exemples, l’algorithme a développé un flair statistique. Présentez-lui un CV qu’il n’a jamais vu : il va prédire, avec un certain niveau de confiance, si ce profil présente les caractéristiques associées à la réussite. C’est ce qu’on appelle l’inférence.

Ce processus — apprendre des exemples passés pour généraliser sur des données nouvelles — est le cœur du machine learning. On parle d’apprentissage supervisé quand les exemples sont étiquetés (on connaît le résultat), et d’apprentissage non supervisé quand l’algorithme cherche lui-même des regroupements dans des données sans étiquette.

Les limites de cette image. Marie peut expliquer pourquoi elle a rejeté un CV. Un algorithme, souvent, ne le peut pas — on parle de boîte noire, un enjeu réglementaire central en Europe (RGPD, AI Act). Marie a ses biais personnels. L’algorithme hérite des biais présents dans ses données d’entraînement — et les applique à grande échelle, mécaniquement, sans conscience.

Déconstruction en 5 images

Terme technique Dans l’analogie du recruteur En réalité
Données d’entraînementLes milliers de CV lus par Marie avec le résultat connu de chaque recrutementL’ensemble d’exemples étiquetés fournis à l’algorithme pour qu’il apprenne
ModèleLe « flair » de Marie, sa capacité à évaluer un profilLa représentation mathématique des patterns appris, stockée dans les paramètres de l’algorithme
EntraînementLes 15 ans d’expérience de Marie, CV après CVLe processus d’ajustement itératif des paramètres sur les données d’exemples
InférenceMarie évalue un nouveau candidat qu’elle n’a jamais rencontréL’algorithme prédit sur une donnée nouvelle, hors des exemples d’entraînement
Surapprentissage (overfitting)Marie qui ne recrute que des profils HEC parce que ses 3 meilleurs employés étaient HECL’algorithme qui mémorise les exemples d’entraînement au lieu d’en extraire des patterns généralisables

Ce que ça change pour vous

  1. Vos outils de scoring fonctionnent sur ce principe. Score de crédit, scoring RH, prédiction de churn client, détection de fraude : toutes ces applications reposent sur du ML entraîné sur des données historiques étiquetées.
  2. La qualité dépend des données, pas de l’algorithme. Un modèle entraîné sur des données biaisées ou incomplètes produira des prédictions biaisées. La question « sur quelles données ce modèle a-t-il été entraîné ? » est la question stratégique à poser à votre équipe data.
  3. Un modèle peut devenir obsolète. Si le contexte change (crise, nouveau comportement consommateur), les patterns appris sur des données passées ne sont plus valides. On parle de data drift. Les modèles ont besoin de réentraînement régulier.
  4. L’explicabilité est un enjeu réglementaire. L’AI Act européen et le RGPD imposent des obligations de transparence sur les décisions automatisées qui affectent les individus. Savoir expliquer pourquoi un algorithme a pris une décision n’est plus optionnel.
  5. Les recommandations que vous voyez partout sont du ML. Amazon, Netflix, LinkedIn, Spotify : leurs systèmes de recommandation sont des modèles ML entraînés sur vos comportements passés pour prédire ce qui vous intéressera.

FAQ débutants

Les stats classiques partent d’un modèle qu’un humain a conçu et cherchent à estimer ses paramètres. Le ML laisse l’algorithme trouver lui-même le modèle le plus adapté aux données. Breiman (2001) a formalisé cette distinction : la « culture des modèles de données » vs la « culture des modèles algorithmiques ». En pratique : les stats classiques expliquent, le ML prédit — avec une tolérance à la complexité bien supérieure.
Non, pas nécessairement. Des outils no-code (Google AutoML, Azure ML Studio, même Excel avec des add-ins) permettent d’entraîner des modèles sans une ligne de code. En revanche, comprendre les concepts — données d’entraînement, overfitting, validation croisée — reste indispensable pour prendre de bonnes décisions managériales sur des projets ML.
L’IA est le terme générique qui désigne toute tentative de simuler des capacités cognitives humaines par une machine. Le ML est une sous-catégorie de l’IA : celle qui apprend à partir des données. Tout ML est de l’IA, mais toute IA n’est pas du ML. Un système expert à base de règles codées à la main (populaire dans les années 1980) est de l’IA sans être du ML.
Trois raisons principales. Premièrement, les données d’entraînement étaient biaisées ou insuffisantes. Deuxièmement, le modèle a fait du surapprentissage : il a mémorisé les exemples sans généraliser. Troisièmement, le contexte a changé depuis l’entraînement. Retour à notre analogie : même Marie se trompe si elle recrute dans un secteur qu’elle ne connaît pas, ou si les normes du métier ont évolué depuis ses derniers recrutements.
Non. Un algorithme ML optimise une fonction mathématique. Il n’a aucune intention, aucune compréhension du sens, aucune représentation du monde. Il détecte des corrélations statistiques dans des données. C’est puissant pour prédire — mais ce n’est pas de la pensée. La confusion entre prédiction statistique et raisonnement est l’une des sources les plus fréquentes de déception dans les projets IA en entreprise.

Les 2 articles fondateurs

① Samuel, A. L. (1959) — Some Studies in Machine Learning Using the Game of Checkers. Arthur Samuel programme un ordinateur pour jouer aux dames et lui donne la capacité d’améliorer ses propres performances en rejouant des milliers de parties contre lui-même. Ce papier démontre pour la première fois qu’une machine peut dépasser les connaissances explicites de son concepteur — et forge le terme « machine learning ». doi.org/10.1147/rd.33.0210

② Breiman, L. (2001) — Statistical Modeling: The Two Cultures. Leo Breiman diagnostique une fracture dans la communauté scientifique entre ceux qui cherchent à expliquer les données et ceux qui cherchent à les prédire. Il plaide pour l’approche algorithmique (ML) face à des données complexes. Ce papier légitimise intellectuellement le ML dans un monde académique dominé par les statistiques classiques. doi.org/10.1214/ss/1009213726

3 prompts pour apprendre avec un LLM

Prompt 1 — Explorer le concept

Explique-moi le machine learning comme si j'étais responsable marketing sans background technique. Utilise une seule analogie du quotidien et explique le mécanisme étape par étape. Termine en me donnant 3 exemples d'applications concrètes dans le marketing.

Objectif : comprendre le mécanisme de base. Ce qu’on apprend : données d’entraînement, pattern, prédiction.

Prompt 2 — Tester sa compréhension

Je vais t'expliquer ce que j'ai compris du machine learning en 5 phrases. Dis-moi ce qui est juste, ce qui est inexact, et corrige avec des mots simples. Voici mon explication : [coller ici votre résumé]

Objectif : valider et corriger sa propre compréhension. Ce qu’on apprend : identifier ses erreurs conceptuelles.

Prompt 3 — Cas pratique management

Mon entreprise veut utiliser le machine learning pour prédire le churn de ses clients. Je suis chef de projet marketing. Quelles questions dois-je poser à mon équipe data avant de valider le projet ? Liste 5 questions prioritaires avec une explication courte pour chacune.

Objectif : adopter la posture du manager face à un projet ML. Ce qu’on apprend : données, biais, overfitting, dérive, explicabilité.

Note méthodologique. Cet article a été rédigé avec l’assistance de Claude (Anthropic) dans le cadre du Gabarit IA 2 — Pédagogie IA pour managers. Les deux références académiques citées ont fait l’objet d’une vérification via recherche web avant publication. Version 1.0 — Avril 2026.

En savoir plus sur Maria Mercanti-Guérin

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture