Spoke · Nivel avanzado

Attribution modeling:
medir qué canal
genera la venta.

Cada plataforma se atribuye el mérito. Si sumás sus números, vendés más de lo que realmente vendés. El modelo de atribución es lo que separa la ficción de la realidad en adquisición paga.

Nivel avanzado Lectura: 13 min. Autor: Lisandro Iserte Última actualización: 10 de abril, 2026
Attribution Modeling — Biblioteca · Lisandro Iserte
01 — Concepto

Qué es la atribución y por qué importa.

La atribución es el proceso de asignar crédito a los canales y touchpoints que contribuyeron a una conversión. Sin atribución, no sabés qué canal funciona, cuánto deberías invertir en cada uno, ni si tu CAC por canal es real o ficticio.

Ronny Kohavi, en Trustworthy Online Controlled Experiments (cap. 5), argumenta que la atribución es el problema más difícil del marketing digital porque intenta responder una pregunta causal — “¿qué causó esta venta?” — con datos observacionales que solo muestran correlación. Alguien que hizo clic en un anuncio de Google y después compró no necesariamente compró porque hizo clic — quizás iba a comprar de todos modos.

El subhub de Atribución y Medición del cluster de Rendimiento desarrolla el tema en profundidad. Este spoke se enfoca en cómo la atribución impacta las decisiones de inversión en adquisición paga específicamente.

02 — Modelos

Los modelos de atribución: ventajas y distorsiones.

Cada modelo asigna el crédito de forma diferente. Ningúno es perfecto — cada uno tiene un sesgo específico que favorece ciertos canales sobre otros.

ModeloLógicaFavoreceDistorsiona
Last-click100% al último touchpointRetargeting, SEM de marcaIgnora canales de awareness que iniciaron el journey
First-click100% al primer touchpointCanales de awareness, socialIgnora canales de cierre
LinearCrédito igual a todosNingún canal en particularSobrevalora touchpoints irrelevantes
Position-based40% primero, 40% último, 20% intermediosPrimer y último contactoSubvalora la fase de consideración
Data-drivenML calcula contribución realDepende del algoritmoNecesita +300 conv/mes para ser confiable

Avinash Kaushik, en Web Analytics 2.0, recomienda un enfoque pragmático: no busques el modelo perfecto — buscá consistencia. Elegí un modelo, usálo de forma consistente y compará tendencias mes a mes. Lo que importa no es el número absoluto de conversiones atribuidas a cada canal sino cómo cambia esa distribución cuando optimizás.

La analítica del cluster de Rendimiento integra la atribución en el sistema de KPIs. La North Star Metric del cluster de Estrategia debe ser resistente al modelo de atribución — si tu NSM cambia drásticamente según el modelo, es una señal de que no estás midiendo lo correcto.

03 — Incrementalidad

Incrementalidad: la prueba real de causalidad.

La incrementalidad responde la pregunta que la atribución no puede: ¿cuántas de estas conversiones ocurrieron gracias a este canal y no habrían ocurrido sin él? Es la diferencia entre correlación (“quien vio el ad compró”) y causalidad (“compró porque vio el ad”).

Kohavi formaliza el método: holdout tests. Apagás un canal durante 2-4 semanas en una región o segmento específico y comparás las conversiones contra un grupo de control donde el canal sigue activo. Si las conversiones caen proporcionalmente al gasto eliminado, el canal es incremental. Si caen mucho menos, buena parte de las conversiones que el canal se atribuía iban a ocurrir de todos modos.

El test de incrementalidad más común en adquisición paga es el geo-holdout: elegís dos ciudades o regiones similares en demografía y volumen, apagás el canal en una y lo dejás activo en la otra. Después de 2-4 semanas, la diferencia en conversiones entre ambas regiones es el efecto incremental del canal. Es más robusto que el holdout por segmento porque elimina la variable de comportamiento individual — estás comparando mercados, no personas.

Meta ofrece Conversion Lift studies nativos que automatizan este proceso. Google tiene Brand Lift y Conversion Lift. Pero también podés hacerlo manualmente con datos de tu CRM y dashboard — lo importante es el diseño experimental, no la herramienta. La experimentación del cluster de Rendimiento formaliza el diseño de estos tests. El principio es el mismo que un A/B test de producto: grupo de tratamiento vs grupo de control, con significancia estadística. La única diferencia es que el “tratamiento” es un canal publicitario y el “resultado” es revenue.

El test de incrementalidad más revelador que podés hacer es apagar el retargeting durante dos semanas y ver qué pasa. Si las ventas casi no cambian, descubriste que estabas pagando por conversiones que iban a ocurrir solas. Si caen un 15%, sabés que el retargeting genera un 15% incremental — y podés calcular si ese 15% justifica el costo.

Lisandro Iserte
04 — Auto-reporte

El problema del auto-reporte de plataformas.

Google reporta conversiones según su ventana (30 días post-clic). Meta según la suya (7 días post-clic, 1 día post-view). LinkedIn tiene criterios propios. Si sumás las conversiones que cada plataforma reporta, el total supera tus ventas reales — a veces por un 30-50%. Cada plataforma tiene incentivo para inflar su contribución porque eso justifica más inversión.

La solución es un sistema de medición independiente. Google Analytics 4, un CDP (Customer Data Platform), o un modelo propio que use datos de primera parte como fuente de verdad. El análisis de datos independiente elimina el sesgo de cada plataforma y te da una visión unificada del journey real. La implementación de tracking del cluster de Rendimiento establece esa infraestructura. El tag management y el data layer son los cimientos — sin ellos, toda la atribución es castillo de naipes.

En B2B con ciclos largos, la atribución requiere conectar el CRM con los datos de pauta. Un lead que llegó por LinkedIn hace 4 meses y cerró un deal hoy necesita que la conexión entre el clic original y la venta se mantenga en el sistema. La segmentación en CRM del cluster de Fidelización cierra ese loop: conecta datos de adquisición con datos de conversión y retención. La segmentación por CLV agrega una capa más: no solo qué canal convierte sino qué canal trae clientes que se quedan y expanden.

La optimización de presupuesto del cluster de Rendimiento depende directamente de la calidad de la atribución: si atribuís mal, redistribuís mal. La lógica de costo de oportunidad del cluster de Estrategia usa estos datos para decidir dónde concentrar inversión — y una atribución distorsionada produce prioridades distorsionadas. Cada dólar asignado al canal equivocado es un dólar que no fue al canal correcto.

La medición de brand equity del cluster de Marca complementa la atribución de performance: el brand equity reduce el CAC de forma indirecta y no aparece en ningún modelo de atribución basado en clics. La diferenciación del cluster de Oferta también tiene impacto invisible: una USP clara convierte mejor en todos los canales pero ningún modelo le atribuye ese efecto. La investigación de mercado del cluster de Mercado aporta datos cualitativos que complementan la atribución cuantitativa — entrevistas con clientes revelan el journey real, no solo el journey que los pixels capturan.

05 — Errores

Errores frecuentes.

Confiar en el auto-reporte de las plataformas

Cada plataforma tiene incentivo para sobre-atribuirse. Sumá las conversiones de Google + Meta + LinkedIn y compará con tus ventas reales. Si hay un delta del 40%, la atribución está inflada. Necesitás una fuente de verdad independiente.

Usar last-click como única fuente

Last-click le da todo el crédito al último touchpoint e invisibiliza los canales que iniciaron el journey. Si solo mirás last-click, vas a subinvertir en awareness y sobreinvertir en retargeting — hasta que el retargeting se quede sin audiencia porque dejaste de alimentar el top del funnel.

Implementar data-driven sin volumen suficiente

Data-driven attribution necesita +300 conversiones mensuales para generar modelos confiables. Con menos volumen, el algoritmo no tiene datos suficientes y produce atribuciones erráticas. En esos casos, position-based o linear son más estables.

No medir incrementalidad

Toda la atribución basada en modelos es estimación. Solo la incrementalidad mide causalidad. Si nunca hiciste un holdout test, no sabés cuánto de lo que te atribuís es real. La experimentación del cluster de Rendimiento te da la herramienta; el spoke de retargeting es el candidato ideal para tu primer test.

06 — Subhub completo

Lo que aprendiste en este subhub.

El subhub de Adquisición Paga cubre el sistema completo: desde entender qué es la pauta y cuándo activarla, hasta medir qué canal realmente genera la venta. Estos son los 9 spokes que recorriste:

01¿Qué es la adquisición paga?

Qué es, cuándo tiene sentido y cuándo es quemar presupuesto.

Inicial
02Canales de adquisición paga

Google, Meta, LinkedIn, YouTube, programática: cuándo usar cada uno.

Inicial
03CAC: costo de adquisición

Cómo calcularlo, qué incluir y la relación CAC/LTV que define viabilidad.

Inicial
04Google Ads y SEM

Subasta, Quality Score, estructura de campaña, match types y bidding.

Intermedio
05Meta Ads

Algoritmo, audiencias, creativos, testing y cómo escalar sin destruir ROAS.

Intermedio
06LinkedIn Ads B2B

Segmentación por cargo, ABM, formatos y la ecuación de ticket alto.

Intermedio
07Optimización de CAC

Las cuatro palancas, la quinta (LTV) y cómo diagnosticar cuál mover.

Avanzado
08Retargeting vs Remarketing

Ventanas temporales, frecuencia, fatiga y el impacto de iOS 14.

Avanzado
09Attribution Modeling

Modelos, incrementalidad, auto-reporte de plataformas y causalidad real.

Avanzado
07 — Preguntas frecuentes

Preguntas frecuentes.

¿Qué modelo de atribución debería usar?

Si tenés pocos canales y ciclo corto, last-click es simple y funcional. Con múltiples canales, usá data-driven si tenés +300 conversiones/mes, o position-based como alternativa. Lo más importante: elegir un modelo, ser consistente y complementar con tests de incrementalidad.

¿Por qué cada plataforma reporta distinto?

Cada plataforma usa su propia ventana y criterio. Google: 30 días post-clic. Meta: 7 días clic, 1 día view. La solución: un sistema de medición independiente que use datos de primera parte como fuente de verdad.

¿Qué es incrementalidad?

Mide cuántas conversiones ocurrieron gracias a un canal y no habrían ocurrido sin él. Se testea con holdout tests: apagás un canal en un segmento y medís la diferencia vs control. Es la única forma de medir causalidad, no solo correlación.

08 — Referencias

Referencias y bibliografía.

Kohavi, R., Tang, D., & Xu, Y. (2020). Trustworthy Online Controlled Experiments. Cambridge University Press. Cap. 5: “Incrementality and Causality.”

Kaushik, A. (2009). Web Analytics 2.0. Wiley. Cap. 4-5: “Critical Web Analytics Concepts.”

Croll, A. & Yoskovitz, B. (2013). Lean Analytics. O’Reilly. Cap. 5: “Analytics Frameworks.”

Chen, A. (2021). The Cold Start Problem. Harper Business. Cap. 9.

Sharp, B. (2010). How Brands Grow. Oxford University Press. Cap. 1-2.

Ellis, S. & Brown, M. (2017). Hacking Growth. Crown Business. Cap. 5.

Términos del glosario

Completaste el subhub

Terminaste Adquisición Paga. El siguiente subhub del cluster de Crecimiento cubre cómo el contenido, el SEO y la optimización para motores de IA construyen adquisición sostenible.

Contenido, SEO y AEO →