Home
/
Glosario
/
A/B Test

¿Qué es un A/B Test?

Autor: Lisandro Iserte
Actualizado: 9 de marzo, 2026

A/B Test — Glosario de Marketing y Branding · Lisandro Iserte
A/B Test en pocas palabras

Un A/B Test es un experimento controlado que distribuye usuarios al azar entre dos versiones de un mismo elemento y mide cuál produce un mejor resultado en una métrica definida de antemano.

Definición de A/B Test

Un A/B Test —también llamado prueba A/B o split test— es un método de experimentación que permite tomar decisiones de negocio con evidencia causal en lugar de opiniones. La pregunta que estructura cada test siempre tiene la misma forma: si cambio X, ¿mejora Y?

Para responderla, se dividen los usuarios al azar en dos grupos que corren en paralelo: el grupo A recibe la versión de control (la actual) y el grupo B recibe la variante modificada. Ambos grupos se exponen al mismo tiempo, sobre tráfico comparable, y se mide una única métrica objetivo definida antes del lanzamiento. El resultado no es una preferencia ni una intuición: es una diferencia medible entre dos comportamientos reales.

Lo que distingue al A/B Test de otras formas de análisis es su lógica causal. Una comparación antes/después puede estar contaminada por estacionalidad, cambios externos o diferencias en el tráfico. El A/B Test, cuando está bien diseñado, aísla el efecto del cambio porque las únicas variables que difieren entre A y B son las que se modificaron deliberadamente.

El resultado accionable de un A/B Test bien ejecutado no es “ganó con 95% de confianza”. Es: la variante B mejora el indicador elegido en este contexto, para esta audiencia, en este momento.

Lisandro Iserte

Cómo funciona un A/B Test: los 7 componentes clave

Todo A/B Test válido tiene la misma arquitectura interna. Saltarse cualquiera de estos componentes no simplifica el test: lo invalida.

1

Pregunta de negocio

El punto de partida no es “quiero testear el botón”, sino “quiero entender qué fricción está reduciendo la conversión en el checkout”. La pregunta define qué vale la pena testear y qué no.

2

Hipótesis

Una afirmación falseable: “Cambiar el copy del CTA de ‘Comprar’ a ‘Empezar gratis’ va a aumentar el click-through porque reduce la percepción de compromiso inmediato.” Sin hipótesis, no hay aprendizaje posible aunque el test gane.

3

Variable independiente

Lo único que cambia entre A y B: el copy, el diseño, el precio, el orden de los elementos, el incentivo. Si se cambian varias cosas a la vez, el resultado no tiene causa identificable.

4

Variable dependiente

La métrica que se va a medir: tasa de conversión, revenue por visita, retención, microconversión. Se define antes del lanzamiento, no después de ver los resultados.

5

Población y unidad de asignación

¿Se asigna por usuario, por sesión, por dispositivo, por cuenta? Elegir mal genera contaminación entre grupos y resultados que no se pueden interpretar.

6

Ventana de medición

El tiempo necesario para capturar comportamiento real, considerando ciclos de compra, días de semana y estacionalidad. Un test cortado antes de tiempo es tan inútil como uno que nunca termina.

7

Regla de decisión

El criterio predefinido para declarar ganador, perdedor o sin diferencia. Sin esta regla, el test termina cuando el analista quiere — que suele ser cuando el resultado conviene.

Tipos de A/B Test: no todos son lo mismo

La denominación “A/B Test” agrupa en realidad tres modalidades distintas con lógicas, costos y riesgos diferentes.

Más común

A/B Test clásico

Control vs. una variante. La forma más simple, más rápida de ejecutar y más fácil de interpretar. Para la mayoría de los casos, es suficiente.

Requiere más tráfico

A/B/n Test

Varias variantes contra un control. Útil cuando hay múltiples hipótesis para validar en paralelo, pero exige más volumen y más disciplina.

Alta complejidad

Test multivariante

Combina cambios en múltiples elementos y analiza sus interacciones. Potente, pero requiere mucho tráfico y una infraestructura de medición sólida.

Dónde se usa el A/B Test

El A/B Test no es exclusivo de ningún canal. Su aplicación depende de que exista tráfico suficiente, una métrica medible y control técnico sobre la asignación de variantes.

Las landing pages y el e-commerce son el entorno más común: el impacto en conversión y revenue es directo y medible con precisión. El email marketing permite aprender rápido sobre asuntos, horarios y CTAs, aunque abrir un correo no siempre equivale a valor real. Los ads y creatividades se pueden testear, pero hay que separar el efecto creativo del efecto de delivery para que el resultado sea interpretable. El producto y el onboarding son ideales para entender comportamiento, pero exigen cuidado con cohortes y retención a mediano plazo.

Plataformas como Meta, Google, Klaviyo o las principales herramientas de e-commerce incluyen funcionalidades nativas de testing. Lo que ninguna plataforma resuelve es el diseño del experimento: eso sigue dependiendo de quién lo ejecuta. Para ver cómo el A/B Test se integra en un sistema de medición más amplio, el cluster de Rendimiento trabaja esta dimensión en profundidad.

Errores comunes en un A/B Test

La mayoría de los A/B Tests que generan decisiones equivocadas no fallan por problemas técnicos. Fallan por errores de diseño que se cometen antes de lanzar.

Cambiar varias cosas y atribuir el resultado a una sola

Si se modifica el copy, el color y la imagen al mismo tiempo, no hay forma de saber qué causó el cambio en la métrica. Un test, una variable.

Mover los objetivos en el medio

Cambiar la métrica primaria, el segmento o el tracking una vez que el test está corriendo invalida todo lo acumulado hasta ese momento.

Cortar por impulso

Revisar el dashboard todos los días y detener el test cuando B va ganando infla los falsos positivos. El test termina cuando alcanza el tamaño de muestra definido, no cuando el resultado conviene.

Correr tests que se pisan

Si dos experimentos comparten audiencia y punto del funnel, sus efectos se contaminan mutuamente.

No documentar

Si el resultado no queda escrito como aprendizaje reutilizable — qué se testeó, por qué, qué pasó, qué se decidió — el costo del test no se recupera nunca.

Buenas prácticas para ejecutar un A/B Test

Definir antes de lanzar: hipótesis, métrica primaria, métricas guardrail, duración mínima y regla de decisión.

Calcular el tamaño de muestra necesario antes de empezar. Existen calculadoras gratuitas que solo necesitan la tasa base y el efecto mínimo detectable.

Correr el test al menos una semana completa para capturar variaciones por día de semana.

Monitorear métricas guardrail — las que no deben empeorar — no solo la métrica primaria.

Documentar cada test: contexto, hipótesis, resultado y aprendizaje. Un repositorio de tests fallidos vale tanto como uno de ganadores.

Tratar los “sin diferencia” como información válida: a veces el aprendizaje más valioso es que el cambio no importó.

Para profundizar en diseño estadístico, CXL tiene una de las guías más rigurosas del sector.

A/B Test y CRO: la relación correcta

El A/B Test es la herramienta de experimentación más usada dentro del CRO (Conversion Rate Optimization), pero no son lo mismo. El CRO es el proceso completo — incluye análisis de datos, investigación cualitativa, identificación de fricciones y priorización de hipótesis. El A/B Test es el mecanismo para validar una hipótesis específica dentro de ese proceso.

Un error frecuente es lanzar A/B Tests sin el proceso de investigación previo que los justifica. Testear el color de un botón sin saber por qué los usuarios no hacen clic no es CRO — es optimización aleatoria. El valor del A/B Test está directamente relacionado con la calidad de la hipótesis que lo precede.

Términos relacionados