Self-Learning > Product Management

Perspectiva de un Facilitador: Navegando la estrategia de producto con el North Star Framework

10 min de lectura

Tuvimos el privilegio de facilitar una sesión práctica en ProductTank Orlando, llamada “Cómo integrar el North Star Framework, OKRs y KPIs para la Estrategia de Producto”. Martin Alaimo nos cuenta los principales insights y aprendizajes que vivió en esta experiencia.

Perspectiva de un facilitador


Por Martin Alaimo

1. Un Momento “Aha” alineando la métrica North Star con los OKRs

Un participante compartió un problema que enfrentaba casi a diario: su equipo entregaba features sin tener en cuenta la estrategia de la empresa.

Es tremendo ver cómo los conceptos abstractos se transforman en herramientas prácticas para superar circunstancias que parecen imposibles: al demostrar cómo el North Star Framework puede anclar los esfuerzos en los resultados, ocurrió un momento “Aha” en la audiencia. Así fue el ejemplo:

Caso Real: Transformando la prioridad en impacto

Para ejemplificar este punto, compartimos con los participantes una experiencia trabajando con una plataforma de e-commerce. Esta organización tenía un equipo de desarrollo muy eficiente, que entregaba continuamente nuevos features como, por ejemplo, filtros de búsqueda avanzados o mejoras en el diseño de la interfaz. Pero, llamativamente, cuando propusimos analizar las métricas, se dieron cuenta de que esas iniciativas no estaban impactando significativamente los objetivos principales del negocio, en otras palabras, estaban perdiendo su tiempo.

Aplicamos el North Star Framework para redefinir prioridades. La métrica seleccionada en ese caso fue “tasa de conversión de visitantes a compradores”. Esto ayudó al equipo a reorientar sus esfuerzos hacia features que realmente influyeran en esa métrica, como optimizar el flujo de checkout y ofrecer recomendaciones de productos personalizadas. Entonces, alineamos los OKRs bajo esta métrica, por ejemplo:

Objetivo: Presentar a los usuarios un proceso de compra sin fricciones.

✔️ KR: Incrementar la conversión de visitantes a compradores en un 20%
✔️ KR: Reducir el tiempo promedio del flujo de checkout en un 30%
✔️ KR: Que los usuarios vean recomendaciones personalizadas en un 80% de las páginas de productos más visitadas.

El resultado fue un enfoque mucho más estratégico que permitió priorizar las tareas del backlog con claridad y medir el impacto directamente en la métrica North Star. En pocos meses, no solo alcanzaron los objetivos, sino que también lograron una mejora significativa en la percepción de valor por parte de los usuarios.

¿Cuál fue la reflexión? El participante en el taller encontró paralelismos claros entre este caso y su propia situación. En su trabajo, había priorizado features basados en peticiones de stakeholders, tendencias del mercado o lo que hacían sus competidores, pero rara vez se cuestionaba cómo esos esfuerzos contribuían a los objetivos estratégicos de la organización.

Al terminar la discusión, expresó que había identificado una nueva manera de colaborar con el equipo de producto: repensar los features y alinearlos con los objetivos estratégicos para garantizar coherencia a nivel de liderazgo. Además, destacó que este enfoque permitiría medir el impacto de manera tangible en términos de valor para los usuarios.

Ver cómo una técnica puede cambiar la forma en que los equipos trabajan y piensan sobre el impacto real es, sin duda, una de las recompensas más grandes.

Think different


2. Ejercicios grupales: de la vanidad al impacto

Los ejercicios grupales fueron una oportunidad para que los participantes pusieran en práctica los conceptos que íbamos aprendiendo. Cada grupo se enfrentó al desafío de definir una métrica North Star para un producto hipotético, lo que generó intensos debates sobre qué medir y por qué. Mientras algunos grupos gravitaban hacia métricas de vanidad como “descargas de la app” o “usuarios registrados,” otros comenzaron a cuestionar su verdadero impacto en los objetivos del producto.

El debate

Uno de los grupos trabajó con un ejemplo de una aplicación de fitness. Al principio, propusieron medir el número de “entrenamientos programados” pero durante la discusión surgió una duda clave: ¿Realmente esta métrica refleja si los usuarios están obteniendo valor del producto?. Esto llevó al equipo a redefinir su enfoque, priorizando una métrica más orientada al impacto: “usuarios activos semanales que completan al menos una sesión de ejercicio”.

El cambio no fue inmediato. Algunos defendían que las métricas de uso (como “sesiones programadas”) eran más fáciles de rastrear, pero con más análisis y discusión llegaron a un consenso. Decidieron que el verdadero éxito del producto no estaba en lo que los usuarios planeaban hacer, sino en lo que realmente hacían y cómo eso transformaba su bienestar.

Lecciones

Este proceso mostró algo fundamental: la claridad no siempre es obvia desde el principio. Las métricas de impacto exigen una reflexión más profunda, y lograr consenso requiere tiempo y diálogo. Sin embargo, al superar estas dificultades, los participantes descubrieron cómo una métrica bien definida puede convertirse en una brújula clara que guía al equipo hacia resultados significativos.

El caso de rigor

Para enriquecer la experiencia, trabajamos alrededor de una historia real de un cliente que enfrentó un desafío similar con su plataforma de aprendizaje online.

Inicialmente, sus métricas se centraban en el tiempo que los usuarios pasaban en la plataforma. Aunque esto parecía un indicador positivo, no estaba directamente relacionado con los objetivos del negocio ni con el valor percibido por los usuarios. Tras una serie de talleres internos, se decidió que la métrica North Star sería “usuarios que completan al menos un curso cada trimestre.”

Este cambio impulsó al equipo a replantear sus iniciativas, enfocándose en mejorar la experiencia de aprendizaje y reducir las tasas de abandono. En pocos meses, los resultados no solo reflejaron un aumento en las tasas de finalización, sino también un impacto directo en la retención de usuarios e ingresos recurrentes.

¿Cuál fue la reflexión? Los debates y el proceso de iteración durante los ejercicios grupales dejaron claro que el camino hacia una buena métrica North Star puede ser desafiante, pero los beneficios valen el esfuerzo. Los participantes no solo aprendieron a evitar métricas de vanidad, sino también a valorar la claridad y el alineamiento que una métrica de impacto bien elegida puede traer a sus equipos. Fue un recordatorio poderoso de que, al final del día, lo que realmente importa es el valor entregado a los usuarios.

3. Las 2 Preguntas Poderosas

Cuando llegamos al momento de preguntas y respuestas, las inquietudes planteadas por los participantes no solo reflejaron los desafíos comunes que enfrentan los equipos de producto, sino que también abrieron la puerta a discusiones estratégicas sobre cómo aplicar las herramientas presentadas de manera efectiva.

Lo aspiracional versus lo realista (primer patrón)

Una de las preguntas más discutidas fue: “¿Cómo equilibras OKRs aspiracionales con Métricas realistas?” La inquietud reflejaba la tensión que muchos equipos enfrentan entre fijar metas ambiciosas para inspirar y mantener objetivos alcanzables para medir el progreso.

Think different


El Caso de estudio

Trabajamos con un ejemplo de un equipo de desarrollo de software que había fijado un OKR enfocado en un outcome claro: “Aumentar la retención de usuarios activos mensuales en un 15%.”

Este objetivo no solo era ambicioso, sino también centrado en el impacto directo en los usuarios y el negocio. Sin embargo, al ser una métrica de outcome, era difícil traducirla en acciones inmediatas para el equipo técnico.

La solución fue descomponer este objetivo en KRs más específicos que reflejaran cambios en el comportamiento de los usuarios, como:

👉 “Incrementar el porcentaje de usuarios que completan un onboarding exitoso del 70% al 85%”
👉 “Reducir la tasa de abandono durante las primeras dos semanas de uso del 20% al 10%”

Estos KRs proporcionaron puntos de enfoque claros y accionables, permitiendo al equipo identificar áreas donde podían mejorar la experiencia del usuario. Además, se establecieron KPIs para medir indicadores a corto plazo, como el tiempo promedio de respuesta a problemas reportados durante el onboarding, que ayudaron a monitorear avances en tiempo real.

Hacerlo de esta manera permitió al equipo avanzar hacia el objetivo aspiracional y también los motivó al ver cómo sus esfuerzos se traducían en mejoras tangibles para los usuarios y el negocio.

El debate sobre esta pregunta ayudó a los participantes a comprender que los OKRs no tienen que ser perfectos desde el inicio. Es mejor tratarlos como iterativos, ajustándolos según los aprendizajes y el progreso.

La Trampa de las métricas sin resultados (segundo patrón)

Otra pregunta que aparece siempre es: “¿Qué ocurre cuando los equipos se enfocan en métricas de output en lugar de resultados (métricas de outcome)?” Esto llevó a una conversación transparente sobre cómo algunas métricas pueden convertirse en fines en sí mismas, perdiendo de vista el impacto que deberían reflejar.

Un ejemplo ilustrativo fue el caso de un cliente que priorizaba obsesivamente aumentar la velocidad del sprint. Aunque los equipos lograron entregar más historias de usuario en cada iteración, esto no se tradujo en un mejor valor para los usuarios. Al analizarlo, quedó claro que las historias completadas no estaban alineadas con las necesidades reales de los clientes ni con los objetivos estratégicos.

La solución fue re-dirigir el enfoque hacia una métrica de resultado: “Reducir en 50% los tickets de soporte”. Esto incentivó a los equipos a priorizar aquello que resolvieran problemas concretos, generando mejoras significativas tanto para los usuarios como para el negocio.

¿Cuál fue la reflexión? Las preguntas planteadas desafiaron supuestos comunes (también llamado patrones) y permitieron explorar soluciones prácticas y compartidas. Fueron un recordatorio de que las métricas y los frameworks son herramientas, no objetivos en sí mismos, y deben usarse para habilitar el impacto, no solo para medirlo.

Estos momentos de discusión intensa dejaron en claro que las preguntas correctas tienen el poder de transformar cómo los equipos entienden su trabajo; esto es algo que quienes hemos trabajado intensamente en coaching de equipo ya lo sabemos, pero no está de más recordarlo.

Más allá de los frameworks y las herramientas, lo que realmente "mueve la aguja" son las conversaciones que ayudan a replantear el enfoque hacia los resultados que importan.

Aprendizajes

1️⃣ Los Frameworks son un punto de partida, no de llegada

Aunque los OKRs y la métrica North Star ofrecen estructura, su verdadero valor es fomentar la alineación y la disciplina. Facilitar esta sesión reforzó la importancia de adaptar los frameworks a las necesidades únicas de cada equipo y organización.

2️⃣ El aprendizaje interactivo profundiza la comprensión

Los ejercicios colaborativos fueron la parte más impactante del taller. La teoría ofrece contexto, pero la aplicación consolida el aprendizaje. Ver a los participantes enfrentarse a escenarios del mundo real demostró el poder de las actividades prácticas.

3️⃣ La comunidad amplifica el Impacto

El intercambio dinámico de ideas entre los asistentes elevó el taller más allá del contenido planeado. Esto reafirmó lo vital que es fomentar entornos donde los profesionales de producto puedan conectarse, compartir y crecer juntos.

¡A seguir construyendo productos y comunidades que realmente importen!


Continúa leyendo...

👉 Entregando Historias de Usuario sin saber para qué son


👉 Entrevista a Nacho Bassino sobre Product Management y Estrategia


👉 Retos que enfrenta el Product Owner más allá del Product Backlog


👉 Siendo Puentes entre la Estrategia y la Ejecución


Certified Digital Product Manager (DPM)
Certified Digital Product Manager (DPM)
Donde la innovación se encuentra con la estrategia.
Visitar todos los programas