Lead scoring sans ML: pourquoi une scorecard à cinq règles gagne pour la plupart des équipes

La plupart des équipes qui adoptent le lead scoring en machine learning obtiendraient 80% du résultat avec une scorecard à cinq règles. Quand passer à l'échelon supérieur, et quand non.

salesguidesPar Ralf Klein · 5 min de lecture
Gros plan d'une personne écrivant au stylo sur un document de stratégie commerciale
Photo par RDNE Stock project sur Pexels

Chaque trimestre, une nouvelle équipe commerciale me dit qu'elle a besoin de lead scoring par AI. On creuse, et ce dont elle a vraiment besoin, c'est d'une scorecard propre à cinq règles avec des poids négatifs et une fonction de décroissance. Le modèle ML fait la une, mais le levier réel se trouve dans les fondamentaux que presque personne ne prend la peine de poser d'abord.

Ce n'est pas une posture contrariante. C'est exactement ce qu'on lit, enterré au bas de chaque guide ML honnête. Le problème, c'est que la version à règles a l'air ennuyeuse, donc les équipes la sautent et paient pour un modèle qui apprend la mauvaise chose à partir de données sales.

Le problème mathématique que la plupart des équipes ont d'abord

Un modèle prédictif a besoin d'assez d'exemples closed-won et closed-lost pour apprendre. La plupart des équipes B2B n'ont pas encore ce volume. Selon le Prospeo guide on AI versus traditional lead scoring, le seuil pratique se situe autour de 1 000 leads par an, 100 deals fermés et 12 à 24 mois de données CRM propres avant qu'un modèle ML ne produise un score défendable. En dessous, un modèle à règles bien construit battra à chaque fois un modèle AI mal entraîné.

C'est la partie que les decks des vendeurs omettent. Un modèle entraîné sur 60 conversions et un an de définitions d'étape incohérentes n'apprend pas votre acheteur, il apprend votre problème d'hygiène de données.

Pourquoi la version à règles gagne le plus souvent

Forrester est direct là-dessus depuis des années. Le Forrester piece on what lead scoring actually is le dit clairement: la plupart des modèles de scoring en production sont bâtis sur des suppositions et des estimations aléatoires de la propension à acheter, pas sur une vraie analyse. Remplacer ça par un modèle ML entraîné sur les mêmes inputs branlants ne corrige pas les inputs, ça rend juste le score plus difficile à contester.

Une scorecard simple est auditable, rapide à modifier, et oblige les équipes commerciale et marketing à s'accorder sur ce que veut dire "qualified" avant de la mettre en production. Cet alignement est l'endroit d'où vient l'essentiel du levier réel. Le Clueless Company breakdown of failing lead scoring models le formule bien: la raison la plus fréquente pour laquelle les projets de scoring échouent n'est pas la mauvaise logique, c'est que les commerciaux ne font pas confiance au score, donc les reps continuent à travailler les contacts qu'ils travaillaient déjà.

Tu ne peux pas construire de la confiance dans une boîte noire. Tu peux en construire dans cinq règles que tu peux lire sur un tableau blanc.

La scorecard à cinq règles

Voici la version que nous recommandons à tout client LeadGrid sous le seuil ML. Elle tient sur un écran et s'explique d'elle-même.

fit_score:
  icp_company_size:    { match: +20, miss: -15 }
  icp_industry:        { match: +15, miss: -10 }
  decision_maker_role: { match: +20, miss: -10 }
 
intent_score:
  pricing_page_visit:  +20
  demo_request:        +30
  three_emails_opened: +5
  inactivity_per_week: -5
 
threshold_for_sales_handoff: 50

Cinq règles, deux poids négatifs, une règle de décroissance. C'est tout. La structure est empruntée au Reform guide on common lead scoring mistakes, qui est direct sur les deux modes d'échec qu'une scorecard de base doit corriger: suivre trop de signaux crée du bruit, et n'attribuer que des scores positifs inonde le CRM de leads froids que personne ne nettoie.

La règle de décroissance pèse plus lourd que les gens ne le pensent. Le Breadcrumbs B2B lead scoring framework for 2026 recommande de retirer des points pour chaque semaine d'inactivité, précisément pour que les MQLs zombies ne restent pas en haut de la file pendant qu'un lead plus chaud de ce matin se retrouve en dessous. Sans décroissance, ta scorecard est un tableau des scores, pas une file.

Quand passer à ML

Il existe un vrai seuil où le scoring ML mérite sa complexité. Tu l'as franchi quand trois choses sont vraies en même temps.

Tu as au moins 100 enregistrements closed-won propres et 100 closed-lost propres, avec des définitions d'étape cohérentes sur tout cet historique. Le Landbase lead scoring statistics roundup cite des données Forrester montrant 38% de conversion en plus et 28% de cycles de vente plus courts pour les équipes qui font du AI scoring, mais ces chiffres viennent d'équipes qui avaient l'hygiène de données pour entraîner dessus. Sans cette hygiène, le modèle apprend ton CRM en désordre, pas ton acheteur.

Ton cycle de vente est assez complexe pour que les humains ne puissent plus retenir les variables en tête. Les deals enterprise multi-stakeholders avec 18+ touchpoints sur six mois sont un problème différent d'un funnel SaaS self-serve avec une porte de free trial. ML gagne sa place sur la forme complexe, pas sur la simple.

Tu as déjà livré la version à règles et tu peux nommer exactement quelle règle le modèle ML va battre. Si tu ne peux pas la nommer, le modèle ML ne résout pas un problème que tu as, il en résout un que le vendeur a.

L'hybride honnête

Le pattern qui marche, c'est le scoring à règles comme couche de base, ML en couche au-dessus dès que tu as les données pour le justifier. Les règles te donnent un score auquel les reps font confiance dès le premier jour. La couche ML, une fois livrée, ajuste le score à partir de patterns que les règles ne voient pas, mais le score lisible par un humain reste dans l'UI.

C'est aussi vers ça que pointaient les SiriusDecisions data on lead scoring adoption, qui trouvaient que 68% des entreprises pratiquaient le lead scoring mais que seuls 40% des commerciaux y voyaient une valeur. Les équipes dans les 40% avaient un modèle que les reps pouvaient expliquer. Les équipes dans les 60% restants avaient un modèle auquel les reps ne croyaient pas.

Construis d'abord la version à cinq règles. Mérite l'upgrade ML quand tes données et ton équipe commerciale sont prêtes. La plupart des équipes n'ont jamais besoin de franchir cette deuxième étape, et c'est très bien comme ça.

Commencer gratuitement →

Partager :
Gratuit pour toujours. Sans carte de crédit.
Ventes + recrutement dans une seule grille
Commencer gratuitement