Lead scoring sin ML: por qué una scorecard de cinco reglas gana para la mayoría de los equipos
La mayoría de los equipos que adoptan lead scoring con machine learning obtendrían el 80% del valor con una scorecard de cinco reglas. Cuándo dar el salto, y cuándo no.

Cada trimestre aparece otro equipo de ventas diciéndome que necesita lead scoring con AI. Escarbamos un poco, y lo que realmente necesitan es una scorecard limpia de cinco reglas con pesos negativos y una función de decaimiento. El modelo ML es el titular, pero la mejora real está en lo básico que casi nadie se molesta en montar primero.
No es una postura contraria. Es lo mismo que aparece enterrado al final de cualquier guía honesta de ML. El problema es que la versión por reglas suena aburrida, así que los equipos la saltan y pagan por un modelo que aprende lo equivocado a partir de datos sucios.
El problema matemático que la mayoría de los equipos tiene primero
Un modelo predictivo necesita suficientes ejemplos closed-won y closed-lost de los que aprender. La mayoría de los equipos B2B aún no tienen ese volumen. Según la Prospeo guide on AI versus traditional lead scoring, el umbral práctico está en torno a 1.000 leads al año, 100 deals cerrados y entre 12 y 24 meses de datos limpios en el CRM antes de que un modelo ML produzca un score defendible. Por debajo de eso, un modelo basado en reglas bien construido le gana cada vez a un modelo AI mal entrenado.
Esa es la parte que los decks de los vendors omiten. Un modelo entrenado con 60 conversiones y un año de definiciones de etapa inconsistentes no aprende a tu comprador, aprende tu problema de higiene de datos.
Por qué la versión por reglas suele ganar
Forrester lleva años siendo claro al respecto. El Forrester piece on what lead scoring actually is lo señala: la mayoría de los modelos de scoring en producción se construyen sobre suposiciones y estimaciones aleatorias de la propensión de compra, no sobre análisis real. Cambiar eso por un modelo ML entrenado sobre los mismos inputs frágiles no arregla los inputs, solo hace que el score sea más difícil de discutir.
Una scorecard simple es auditable, fácil de cambiar y obliga a los equipos de ventas y marketing a ponerse de acuerdo sobre qué significa "qualified" antes de ponerla en producción. Esa alineación es de donde sale la mayor parte de la mejora real. El Clueless Company breakdown of failing lead scoring models lo dice bien: la razón más común por la que fallan los proyectos de scoring no es la mala lógica, es que ventas no confía en el score, así que los reps siguen trabajando con quienes ya trabajaban.
No puedes construir confianza en una caja negra. Sí puedes construirla en cinco reglas que se leen de una pizarra.
La scorecard de cinco reglas
Esta es la versión que recomendamos a cualquier cliente de LeadGrid por debajo del umbral ML. Cabe en una pantalla y se explica sola.
fit_score:
icp_company_size: { match: +20, miss: -15 }
icp_industry: { match: +15, miss: -10 }
decision_maker_role: { match: +20, miss: -10 }
intent_score:
pricing_page_visit: +20
demo_request: +30
three_emails_opened: +5
inactivity_per_week: -5
threshold_for_sales_handoff: 50Cinco reglas, dos pesos negativos, una regla de decaimiento. Eso es todo. La estructura está tomada de la Reform guide on common lead scoring mistakes, que es directa sobre los dos modos de fallo que una scorecard básica tiene que arreglar: seguir demasiadas señales crea ruido, y asignar solo puntuaciones positivas inunda el CRM de leads fríos que nadie limpia.
La regla de decaimiento pesa más de lo que la gente cree. El Breadcrumbs B2B lead scoring framework for 2026 recomienda restar puntos por cada semana de inactividad, precisamente para que los MQLs zombies no se queden arriba de la cola mientras un lead más caliente de esta mañana queda por debajo. Sin decaimiento, tu scorecard es una tabla de récords, no una cola.
Cuándo graduarse a ML
Existe un umbral real en el que el scoring ML se gana su complejidad. Lo has cruzado cuando tres cosas son ciertas a la vez.
Tienes al menos 100 registros closed-won limpios y 100 closed-lost limpios, con definiciones de etapa consistentes en todo ese historial. El Landbase lead scoring statistics roundup cita datos de Forrester que muestran 38% más de conversión y 28% de ciclos de venta más cortos para equipos con AI scoring, pero esos números vienen de equipos que tenían la higiene de datos para entrenar. Sin esa higiene, el modelo aprende tu CRM desordenado, no a tu comprador.
Tu ciclo de venta es lo bastante complejo como para que los humanos ya no puedan retener las variables en la cabeza. Los deals enterprise multi-stakeholder con más de 18 touchpoints a lo largo de seis meses son un problema distinto al de un funnel SaaS self-serve con una puerta de free trial. ML se gana su sitio en la forma compleja, no en la simple.
Ya has lanzado la versión basada en reglas y puedes nombrar exactamente qué regla va a batir el modelo ML. Si no puedes nombrarla, el modelo ML no resuelve un problema que tú tengas, resuelve uno que tiene un vendor.
El híbrido honesto
El patrón que funciona es scoring basado en reglas como capa base, ML como capa por encima cuando ya tienes los datos para justificarlo. Las reglas te dan un score en el que los reps confían desde el primer día. La capa ML, una vez lanzada, ajusta el score con patrones que las reglas no ven, pero el score legible para humanos sigue en la UI.
Hacia eso apuntaban también los SiriusDecisions data on lead scoring adoption cuando encontraron que el 68% de las empresas hacía lead scoring pero solo el 40% de los comerciales le veía valor. Los equipos en ese 40% tenían un modelo que los reps podían explicar. Los del 60% restante tenían un modelo en el que los reps no creían.
Construye primero la versión de cinco reglas. Gánate el upgrade a ML cuando tus datos y tu equipo de ventas estén listos. La mayoría de los equipos nunca necesitan dar ese segundo paso, y eso está bien.

