Home/ Biblioteca/ Oferta/ Pricing y Monetización/ Experimentación en pricing
Spoke · Nivel avanzado

Experimentación en pricing: testear sin destruir confianza

La mayoría de las empresas testean headlines, colores de botón y flujos de onboarding. Casi ninguna testea el precio — la variable con mayor impacto en revenue. Y las que lo hacen, suelen hacerlo mal.

Nivel Avanzado 13 min lectura Autor: Lisandro Iserte Última actualización: 7 de abril de 2026
Experimentación en pricing
01

Por qué experimentar con precio

Simon, en Confessions of the Pricing Man (cap. 2), calculó que una mejora del 1% en precio produce entre 8% y 11% de mejora en rentabilidad — más que una mejora equivalente en volumen o costos. Y sin embargo, la mayoría de las empresas fijan el precio una vez y no lo tocan durante años. La razón no es técnica sino emocional: experimentar con precio se siente arriesgado porque un error es visible e inmediato — un A/B test de headline que falla es invisible; un A/B test de precio que falla produce clientes enojados.

Kohavi, en Trustworthy Online Controlled Experiments (cap. 15), reconoce esta tensión: los price tests son "los experimentos más valiosos y los más peligrosos". Los más valiosos porque el precio es la variable con mayor impacto directo en revenue. Los más peligrosos porque un error de diseño no solo produce datos malos sino que destruye la percepción de justicia que sostiene la relación con el cliente.

Pero no experimentar es también una decisión — y probablemente la más costosa. Un precio definido por intuición o cost-plus que nunca se valida es una hipótesis no testeada que opera como verdad durante años. La lógica de value-based pricing requiere datos de disposición a pagar que solo la experimentación — directa o indirecta — puede generar. Sin experimentar, tu pricing es una opinión consensuada, no una decisión informada.

02

Los 4 métodos: del más seguro al más potente

4 métodos de experimentación en pricing
1. Van Westendorp (encuesta)

4 preguntas sobre percepción de precio a 100-200 respondentes. Revela rango aceptable y punto óptimo. No requiere cambiar precios reales.

+ Seguro, rápido, barato− Mide declaración, no comportamiento
2. Conjoint analysis (preferencia simulada)

Combinaciones de features + precios que el respondente evalúa. Deduce cuánto vale cada componente. Muestra grande (300+) y diseño experto.

+ Granularidad por feature y plan− Costoso, lento, requiere expertise
3. A/B test de página (estructura)

Testeás diferentes configuraciones de planes, features o framing — no el número en sí. Misma inversión que un CRO test estándar.

+ Comportamiento real, riesgo controlado− Mide estructura, no precio exacto
4. A/B test de precio (número)

Dos grupos ven precios diferentes para el mismo producto. El método más honesto — pero el más sensible éticamente.

+ Máxima fidelidad: mide lo que la gente hace− Riesgo ético y reputacional si se descubre

Ramanujam, en Monetizing Innovation (cap. 6), recomienda usar los métodos en secuencia: Van Westendorp primero para mapear el rango, conjoint para refinar la estructura de planes y A/B test para validar la decisión final. Cada método reduce la incertidumbre y el riesgo del siguiente. La investigación de mercado previa al test reduce la posibilidad de errores costosos en el test real.

03

Kohavi vs. startup speed: rigor y pragmatismo

La tensión central de la experimentación en pricing es entre el rigor estadístico que Kohavi exige y la velocidad que la realidad del negocio demanda. Kohavi quiere significancia al 95%, power del 80% y corrección por tests múltiples. Una startup con 500 visitantes por semana no puede alcanzar esos estándares en un plazo razonable.

Ries, desde The Lean Startup (cap. 7), propone una alternativa pragmática: "validated learning" no requiere significancia estadística — requiere evidencia suficiente para tomar una decisión mejor que la alternativa (intuición). Si tu alternativa es "el precio que inventamos en una servilleta", un test con 200 usuarios ya es un upgrade masivo aunque no tenga p-value de 0.05.

Mi postura: el rigor de Kohavi aplica cuando el costo del error es alto y el volumen permite significancia — enterprise SaaS con miles de conversiones mensuales. El pragmatismo de Ries aplica cuando el costo de no experimentar es mayor que el costo de un error — startup early-stage donde cualquier dato real supera a la intuición. La experimentación en producto sigue la misma lógica: el nivel de rigor se calibra al contexto, no se impone como dogma.

Lo que ambos coinciden es que un test mal diseñado es peor que no testear. Kohavi documenta un caso donde Amazon testeó un cambio de layout que parecía mejorar la conversión un 3% — pero la mejora venía de un bug que mostraba el precio sin impuestos en una variante. El "resultado positivo" era artefacto del error de implementación. La instrumentación del tracking es tan importante como el diseño del test — datos sucios producen decisiones sucias.

Trabajé con una empresa de servicios profesionales que quería subir el precio un 25% pero tenía miedo de perder clientes. En lugar de A/B testear (imposible en servicios — cada cliente ve una propuesta individual), hicimos Van Westendorp con 120 prospectos y 40 clientes actuales. El resultado: el precio actual estaba en la zona "demasiado barato" para el 35% de los respondentes. El miedo a la suba era infundado — los datos mostraban que un porcentaje significativo ya desconfiaba del precio bajo. Subimos 30% y no perdimos un solo cliente activo. El revenue subió 30% sin cambiar nada más.

Lisandro Iserte
04

Qué testear primero: estructura antes que número

Ramanujam es categórico: la mayoría de los problemas de pricing no son de nivel (el número es incorrecto) sino de estructura (la configuración de planes no refleja cómo el cliente percibe el valor). Testear el número antes de la estructura es optimizar la última milla sin haber elegido el camino correcto.

Estructura de planes: ¿2 planes o 3? ¿Qué features incluye cada uno? ¿El plan "recomendado" es el correcto para la mayoría? La arquitectura de packaging determina el frame de decisión del cliente — y el frame tiene más impacto que el número. Un A/B test entre 2 planes vs. 3 planes suele producir más aprendizaje que un test de $49 vs. $59.

Value metric: ¿cobrás por usuario, por proyecto, por GB, por transacción? La unidad de cobro define si tu revenue escala con el éxito del cliente o se estanca. Cambiar de "por usuario" a "por proyecto activo" puede ser más transformador que cualquier cambio de número — porque alinea el precio con lo que el cliente percibe como valor. La elasticidad cambia según la value metric: un cliente que paga por usuario siente cada nuevo empleado como un costo; un cliente que paga por proyecto siente cada nuevo proyecto como una inversión.

Framing y presentación: ¿mensual o anual? ¿El plan más caro va primero o último? ¿Hay badge de "más popular"? La psicología del precio se testea con cambios de presentación que no tocan el número. El A/B test de framing es el más seguro éticamente porque todos pagan lo mismo — solo cambia cómo se presenta. La identidad visual de la pricing page condiciona la percepción antes de que el cliente lea el primer número.

05

Errores frecuentes

Testear sin hipótesis

"Probemos $49 vs. $59 y veamos qué pasa." Sin hipótesis, no sabés qué estás midiendo ni por qué. La experimentación requiere una pregunta clara: "¿el mercado acepta un premium de 20% sobre el precio actual sin caída significativa en conversión?" Define "significativa" antes de correr el test — no después de ver los resultados.

Muestra insuficiente para significancia

Un test con 80 conversiones por variante no tiene poder estadístico para detectar diferencias menores al 30%. Si tu diferencia real es del 10%, el test te va a decir "no significativo" — y vas a concluir que "no hay diferencia" cuando en realidad no tenías muestra para detectarla. La calculadora de sample size es la primera herramienta, no la última.

No controlar variables externas

Corrés el test durante Black Friday, lanzás una campaña de contenido en paralelo o el competidor baja precios la misma semana. Cualquier variable no controlada contamina el resultado. La capacidad de diagnóstico incluye identificar qué cambió durante el test que no sea el test — y si algo cambió, los resultados no son confiables.

Testear precio con clientes existentes

Un cliente que paga $49/mes descubre que el nuevo cliente paga $39. La percepción no es "qué bien que los nuevos tienen descuento" sino "me están cobrando de más". Si vas a testear precio, usá nuevos leads como grupo de test — nunca clientes activos que puedan comparar. La retención sufre más por una percepción de injusticia que por un precio alto. Y la gobernanza de marca debería definir los límites éticos del test antes de diseñarlo.

06

Cómo diagnosticar si necesitás experimentar con pricing

Si nunca validaste el precio con datos: necesitás al menos un Van Westendorp. Si tu precio se definió hace más de 2 años sin revisión, la competencia y el mercado cambiaron — y tu precio probablemente no refleja la realidad actual. La segmentación también pudo cambiar: quizás tu ICP actual es diferente al de cuando fijaste el precio.

Si la conversión de pricing page es baja pero el tráfico es bueno: el problema puede ser de precio, de estructura de planes o de comunicación de valor. Un test de estructura (2 vs. 3 planes, features diferentes por plan) es más seguro y a menudo más revelador que un test de número. La optimización de CRO de la pricing page debería incluir tests de pricing como parte estándar del programa.

Si el NPS es alto pero el churn también: los clientes te valoran pero se van — posiblemente por precio. Entrevistas de exit research con clientes que churnearon revelan si el precio fue factor. Si lo fue, la experimentación determina dónde está el punto de equilibrio entre retención y revenue. El go-to-market debería incorporar pricing como variable activa — no como constante que se fija una vez y se olvida.

Preguntas frecuentes

Preguntas frecuentes sobre experimentación en pricing

¿Es ético cobrar precios diferentes en un A/B test?

Kohavi dice que sí si el rango es razonable, el test es temporal y se ajusta retroactivamente si el precio final es menor. La alternativa más segura: testear estructura en lugar de número.

¿Cuánto tráfico necesito?

Con conversión del 3% y delta del 20%, ~5.000-8.000 visitantes por variante. Si tu tráfico es menor, Van Westendorp o conjoint son más viables.

¿Qué testeo primero?

Estructura antes que número. Cambiar la configuración de planes suele tener más impacto que cambiar el precio dentro de un plan. La estructura define el frame de decisión.

Referencias y bibliografía

Referencias y bibliografía

Kohavi, R., Tang, D. & Xu, Y. (2020). Trustworthy Online Controlled Experiments. Cambridge University Press. Cap. 15: "Pricing Experiments."
Simon, H. (2015). Confessions of the Pricing Man. Springer. Cap. 2.
Ramanujam, M. & Tacke, G. (2016). Monetizing Innovation. Wiley. Cap. 6: "WTP Research."
Ries, E. (2011). The Lean Startup. Crown Business. Cap. 7: "Measure."
Nagle, T. T. & Müller, G. (2018). The Strategy and Tactics of Pricing. 6th ed. Routledge. Cap. 5.
Términos relacionados

Siguiente artículo

Experimentaste. Ahora la pregunta final: ¿tu precio refuerza o contradice tu posicionamiento de marca?

Pricing y posicionamiento →