Home/Biblioteca/Rendimiento/Atribución y Medición
Subhub · Cluster Rendimiento

Atribución y medición:
¿este canal causa conversiones
o solo las captura?

Autor: Lisandro IserteActualizado: 2 de abril, 2026Lectura: 15 min.
Atribución y Medición — Biblioteca · Lisandro Iserte
Definición rápida

Atribución: asignar crédito a los touchpoints que contribuyen a conversión. La pregunta central: ¿este canal causa conversiones o solo las captura?

¿Qué es la atribución y por qué importa?

Un usuario ve un ad de Meta, después busca tu marca en Google, después convierte. ¿Qué canal causó la conversión? ¿Meta generó awareness que llevó a búsqueda, o el usuario ya te conocía y el ad fue coincidencia?

Esta pregunta no tiene respuesta perfecta. Gordon, Zettelmeyer y Chapsky lo demostraron en su estudio de Facebook: todos los modelos de atribución son simplificaciones. Distribuyen crédito entre touchpoints basándose en reglas o algoritmos, pero ninguno captura la causalidad real porque es inobservable.

Esta limitación no invalida la atribución — la hace contextual. Los modelos son útiles para comparar performance relativa, identificar patrones y optimizar tácticamente. Pero la pregunta no es “qué modelo es correcto” sino “qué modelo es más útil para las decisiones que necesito tomar”.

En el cluster Rendimiento, atribución es el tercer subhub porque depende del tracking (subhub 2) para capturar touchpoints y de los KPIs (subhub 1) para saber qué conversiones medir. Sin ambos, la atribución opera sobre datos incompletos.

Los 3 niveles de madurez en atribución

Según cómo entiende qué canales funcionan, un equipo puede estar en uno de tres niveles.

1

Last-click por defecto

Se usa el modelo de atribución que viene por defecto en Google Analytics (last-click o data-driven automático). No se entienden los supuestos ni las limitaciones. Brand search aparece como “el mejor canal” porque captura demanda, no porque la genere. No se miden canales de awareness.

2

Multi-touch con ventanas definidas

Se usa un modelo multi-touch (linear, time decay o position-based) con ventanas de atribución calibradas al sales cycle. Se comparan modelos para entender sesgos. Se entiende que last-click sobrevalora conversión final y se complementa con vistas de assisted conversions.

3

Causal: MMM + incrementality

Se complementa atribución digital con Marketing Mix Modeling (regresión estadística sobre datos agregados) e incrementality testing (experimentos donde se corta inversión y se mide impacto). Triangulación de múltiples métodos. Se distingue “capturar demanda” de “generar demanda”.

La mayoría están en nivel 1: usan el modelo por defecto sin entender qué asume. El salto a nivel 2 (multi-touch consciente + ventanas calibradas) es el que más impacto genera porque revela canales invisibilizados por last-click.

Los 5 enfoques de atribución

Cada enfoque tiene trade-offs distintos entre simplicidad, precisión y causalidad.

1

Last-click / First-click (reglas simples)

100% del crédito al último (o primer) touchpoint. Simple, fácil de implementar. Last-click sobrevalora canales de conversión final (brand search, retargeting). First-click sobrevalora descubrimiento. Útil como baseline, no como verdad. Lewis y Rao demostraron que last-click puede sobreestimar ROAS de retargeting hasta 10x.

2

Multi-touch (distribución de crédito)

Linear: crédito equitativo entre todos los touchpoints. Time decay: más peso a touchpoints recientes. Position-based (U-shaped): 40% primero, 40% último, 20% intermedios. Más realista que single-touch pero aún arbitrario — ¿por qué 40/20/40 y no 30/40/30? La elección del modelo debería reflejar tu hipótesis sobre cómo decide tu comprador.

3

Data-driven / Algorítmico

Machine learning asigna crédito basándose en patrones reales de conversión. Más preciso pero requiere volumen (10.000+ conversiones/mes), es una caja negra difícil de explicar, y sigue midiendo correlación — no causalidad. Google, Meta y herramientas como Rockerbox ofrecen versiones propias.

4

Marketing Mix Modeling (MMM)

Regresión estadística sobre datos agregados (no user-level) para estimar contribución de cada canal. Chan y Perry (Google) lo formalizaron. No depende de cookies ni tracking individual — funciona con datos de inversión y resultados por período. Limitación: requiere datos históricos (12+ meses), variabilidad en inversión y experiencia estadística.

5

Incrementality testing (gold standard causal)

Experimentos controlados: cortás inversión en un canal (o geografía) y medís si las conversiones caen proporcionalmente. Si caen, el canal es causal. Si no, estaba capturando demanda existente. Gordon et al. lo validaron en Facebook: es el único método que mide causalidad real. Limitación: requiere volumen y disposición a “perder” inversión durante el test.

El mejor sistema de atribución que implementé no fue el más sofisticado — fue el que todos entendían y usaban para decidir. Claridad sobre limitaciones vale más que precisión técnica que nadie confía. Si tu equipo no entiende el modelo, no lo va a usar.

Lisandro Iserte

Qué incluye y qué no incluye este subhub

Este subhub incluye

  • Modelos: last-click, multi-touch, data-driven, algorítmico
  • Ventanas de atribución, assisted conversions
  • Marketing Mix Modeling, incrementality testing
  • Medición causal vs correlacional, triangulación

Este subhub no incluye

Correlación vs causalidad: la pregunta que la atribución no responde

La mayoría de los modelos de atribución miden correlación: “este canal aparece en el path de conversión”. Pero correlación no es causalidad. Brand search aparece en casi todos los journeys — pero la gente ya decidió y busca tu marca. El canal no causó la conversión — la capturó.

Lewis y Rao lo cuantificaron en su paper del Quarterly Journal of Economics: medir el retorno causal de la publicidad es estadísticamente difícil porque el efecto incremental es pequeño relativo a la varianza natural de las ventas. Un ad que “genera” 100 conversiones puede en realidad generar 5 incrementales — las otras 95 habrían ocurrido igual.

La única forma de medir causalidad es con experimentos. Incrementality testing: cortás inversión en un canal en una geografía/segmento y comparás con el control. Si las conversiones del grupo test caen más que las del control, el canal es causal. Si no hay diferencia, estaba capturando demanda orgánica. Es incómodo pero es la única verdad que importa.

Errores frecuentes

Confundir correlación con causalidad

Que un canal aparezca en el path no significa que causó la conversión. Retargeting y brand search capturan demanda; prospecting y awareness la generan. Sin incrementality testing, no sabés cuál es cuál.

Optimizar hacia el modelo, no hacia resultados

Sobre-invertir en canales que “el modelo dice que funcionan” (retargeting, brand) y sub-invertir en los que generan demanda (prospecting, awareness). El modelo es herramienta, no realidad.

Ventanas de atribución mal calibradas

7 días subestima canales con cycle largo (B2B). 90 días sobreestima y captura ruido. Calibrá según tu sales cycle real — no uses el default.

Un solo modelo como verdad

Ninguno captura toda la realidad. Las mejores organizaciones usan múltiples: last-click para táctica, multi-touch para journeys, MMM/incrementality para causalidad. Triangulación > modelo único.

Ignorar el impacto de cookies muriendo

Third-party cookies en extinción dificulta cross-device y cross-site. Si tu atribución depende 100% de cookies, ya estás perdiendo datos. First-party data + MMM + incrementality son el futuro.

9 guías de atribución y medición

Organizadas en tres niveles según la complejidad.

Nivel inicial — Fundamentos 01

¿Qué es la atribución?

Marco completo: asignar crédito a touchpoints y el problema de causalidad.

02

Modelos de atribución

Last-click, first-click, linear, time decay, data-driven: cuándo usar cada uno.

03

Last-click vs multi-touch

Trade-offs entre simplicidad y precisión en modelos de atribución.

Nivel intermedio — Implementación 04

Atribución multi-canal

Trackear y atribuir a través de múltiples canales y dispositivos.

05

Ventanas de atribución

Cuánto tiempo después del touchpoint contar la conversión.

06

Decay models

Time decay, position-based: dar más peso a touchpoints relevantes.

Nivel avanzado — Causalidad 07

Atribución algorítmica

Machine learning para asignar crédito basándose en patrones reales.

08

Marketing Mix Modeling

Regresión sobre datos agregados para estimar contribución causal.

09

Incrementality testing

Gold standard causal: medir impacto real cortando inversión.

Preguntas frecuentes

¿Qué modelo de atribución usar?

Last-click es simple pero sobrevalora conversión final. Multi-touch distribuye crédito. Data-driven requiere 10.000+ conversiones/mes. Empezá simple, evolucioná con volumen.

¿Cómo medir impacto real vs correlación?

Incrementality testing: cortás inversión en un canal y medís si las conversiones caen. Si no caen, estaba capturando demanda existente. MMM es alternativa para canales difíciles de testear.

¿Atribución con cookies muriendo?

First-party data, Marketing Mix Modeling (no depende de user-level tracking), incrementality testing. El futuro es triangulación de múltiples métodos.

Referencias y bibliografía

Gordon, B. R., et al. (2019). A comparison of approaches to advertising measurement. Marketing Science, 38(2).

Lewis, R. A., & Rao, J. M. (2015). The unfavorable economics of measuring returns to advertising. Quarterly Journal of Economics, 130(4).

Chan, D., & Perry, M. (2017). Challenges and opportunities in media mix modeling. Google Inc.

Kohavi, R., et al. (2020). Trustworthy Online Controlled Experiments. Cambridge University Press.

Kaushik, A. (2009). Web Analytics 2.0. Sybex.

Fishkin, R. (2018). Lost and Founder. Portfolio/Penguin.

Términos relacionados

Siguiente paso

Atribución dice qué correlaciona. Experimentación dice qué causa resultados.

Ir a Experimentación →