Lead scoring zonder ML: waarom een scorekaart met vijf regels wint voor de meeste teams

De meeste teams die machine learning lead scoring invoeren halen 80% van de waarde uit een scorekaart met vijf regels. Wanneer wel upgraden, en wanneer niet.

salesguidesDoor Ralf Klein · 4 min lezen
Close-up van iemand die met een pen schrijft op een document met bedrijfsstrategie
Foto door RDNE Stock project op Pexels

Elk kwartaal komt er weer een salesteam langs dat zegt AI lead scoring nodig te hebben. We graven door, en wat ze eigenlijk nodig hebben is een schone scorekaart van vijf regels met negatieve gewichten en een decay-functie. Het ML-model is de kop, maar de winst zit in de basis die bijna niemand eerst opzet.

Dit is geen contrair standpunt. Het is precies wat onderaan elke eerlijke ML-gids staat. Het probleem is dat de rules-versie saai klinkt, dus teams slaan die over en betalen voor een model dat het verkeerde leert uit vieze data.

Het wiskundige probleem dat de meeste teams eerst hebben

Een predictief model heeft genoeg closed-won en closed-lost voorbeelden nodig om van te leren. De meeste B2B-teams hebben dat volume nog niet. Volgens de Prospeo guide on AI versus traditional lead scoring ligt de praktische ondergrens rond de 1.000 leads per jaar, 100 gesloten deals en 12 tot 24 maanden schone CRM-data voordat een ML-model een verdedigbare score oplevert. Daaronder verslaat een goed gebouwd rules-based model elke keer een slecht getraind AI-model.

Dat is het stuk dat vendor decks weglaten. Een model dat getraind is op 60 conversies en een jaar inconsistente fase-definities leert je koper niet, het leert je probleem met datahygiëne.

Waarom de rules-versie meestal wint

Forrester is hier al jaren keihard over. Het Forrester piece on what lead scoring actually is stelt dat de meeste productieve scoring-modellen gebouwd zijn op aannames en willekeurige schattingen van koopintentie, niet op echte analyse. Dat vervangen door een ML-model dat op dezelfde wankele inputs is getraind, fixt de inputs niet, het maakt de score alleen moeilijker om te betwisten.

Een eenvoudige scorekaart is auditbaar, snel aan te passen, en dwingt de sales- en marketingteams om het erover eens te worden wat "qualified" betekent voordat ze hem live zetten. Die alignment is waar de meeste echte winst vandaan komt. De Clueless Company breakdown of failing lead scoring models zegt het goed: de meest voorkomende reden dat scoring-projecten falen is niet slechte logica, het is dat sales de score niet vertrouwt, dus reps blijven werken met wie ze toch al bewerkten.

Je kunt geen vertrouwen bouwen in een black box. Wel in vijf regels die je van een whiteboard kunt aflezen.

De scorekaart met vijf regels

Hier is de versie die we aanraden voor elke LeadGrid-klant onder de ML-drempel. Hij past op één scherm en legt zichzelf uit.

fit_score:
  icp_company_size:    { match: +20, miss: -15 }
  icp_industry:        { match: +15, miss: -10 }
  decision_maker_role: { match: +20, miss: -10 }
 
intent_score:
  pricing_page_visit:  +20
  demo_request:        +30
  three_emails_opened: +5
  inactivity_per_week: -5
 
threshold_for_sales_handoff: 50

Vijf regels, twee negatieve gewichten, één decay-regel. Dat is het. De structuur is geleend van de Reform guide on common lead scoring mistakes, die direct is over de twee faalmodi die een basis-scorekaart moet oplossen: te veel signalen tegelijk volgen creëert ruis, en alleen positieve scores toekennen vult je CRM met koude leads die niemand opruimt.

De decay-regel telt zwaarder dan mensen denken. Het Breadcrumbs B2B lead scoring framework for 2026 raadt aan punten af te trekken voor elke week inactiviteit, juist zodat zombie-MQL's niet bovenaan de wachtrij staan terwijl een hetere lead van vanochtend eronder hangt. Zonder decay is je scorekaart een hi-score lijst, geen wachtrij.

Wanneer wel doorgroeien naar ML

Er is een echte drempel waarop ML-scoring zijn complexiteit verdient. Je bent eroverheen als drie dingen tegelijk waar zijn.

Je hebt minstens 100 schone closed-won en 100 schone closed-lost records, met consistente fase-definities over die hele historie. De Landbase lead scoring statistics roundup citeert Forrester-data die 38% hogere conversie en 28% kortere sales cycles laat zien voor teams met AI scoring, maar die cijfers komen van teams die de datahygiëne hadden om op te trainen. Zonder die hygiëne leert het model je rommelige CRM, niet je koper.

Je sales cycle is complex genoeg dat mensen de variabelen niet meer in hun hoofd kunnen vasthouden. Multi-stakeholder enterprise deals met 18+ touchpoints over zes maanden zijn een ander probleem dan een self-serve SaaS funnel met een free trial gate. ML verdient zijn brood op de complexe vorm, niet op de eenvoudige.

Je hebt al een rules-based versie live en je kunt precies benoemen welke regel het ML-model gaat verslaan. Kun je die niet benoemen, dan lost het ML-model geen probleem op dat jij hebt, het lost er één op dat een vendor heeft.

De eerlijke hybride

Het patroon dat werkt is rules-based scoring als basislaag, met ML als overlay erbovenop zodra je de data hebt om dat te verantwoorden. De rules geven je een score die reps op dag één vertrouwen. De ML-overlay, als je hem live zet, past de score aan op basis van patronen die de regels niet zien, maar de menselijk leesbare score blijft in de UI staan.

Daar wijst de SiriusDecisions data on lead scoring adoption ook op: 68% van de bedrijven draaide lead scoring, maar slechts 40% van de salesmensen zag er waarde in. De teams in die 40% hadden een model dat reps konden uitleggen. De teams in de andere 60% hadden een model dat reps niet geloofden.

Bouw eerst de versie met vijf regels. Verdien de ML-upgrade zodra je data en je salesteam er klaar voor zijn. De meeste teams hoeven die tweede stap nooit te zetten, en dat is prima.

Gratis starten →

Delen:
Gratis voor altijd. Geen creditcard.
Sales + recruitment in één grid
Gratis starten