Usamos cookies. Tienes opciones. Las cookies nos ayudan a mantener el sitio funcionando sin problemas e informar sobre nuestra publicidad, pero si deseas realizar ajustes, puedes visitar nuestro Aviso de cookies para más información.
Uso de cookies en su dispositivo. Las cookies nos ayudan a mantener esta página web funcionando correctamente y a personalizar nuestra publicidad, pero el uso que hacemos de las cookies depende de usted. Acepte nuestra configuración o personalícela.
×

Caso práctico de data modelling para una analítica avanzada

En los últimos años, las organizaciones TELCO han trabajado en la transformación de sus negocios para alcanzar un alto nivel de madurez digital que les permita aprovechar al máximo el valor de los datos. El Big Data ha ayudado a estas empresas a convertir un gran volumen de datos en información útil, hacer un marketing más eficaz, generar servicios más relevantes y personalizados para sus clientes y minimizar los costes de mantenimiento de sus activos.

Sin embargo, en contraposición, también ha generado una proliferación de sistemas de datos realmente complejos de gestionar que obstaculizan la explotación y análisis avanzado de los mismos. Sus ecosistemas ricos de datos carecen, en ocasiones, de un entorno centralizado y disponible en tiempo real para la generación de insights relevantes para el negocio.

En este contexto, resulta imprescindible contar con una plataforma robusta, escalable, con capacidades de Machine Learning y fácilmente integrable en el entorno de los diferentes activos de la compañía, donde llevar a cabo la integración, higiene, transformación modelado y activación de datos.

 

Retos y soluciones de data modelling

 

Nuestro cliente TELCO tiene un objetivo de negocio bien definido: convertirse en una compañía 100% digitalizada, líder en productos y servicios digitales. Para ello, sabe que resulta imprescindible avanzar en la personalización y contextualización de su oferta a través de una analítica avanzada que le permita mejorar la experiencia de sus clientes.

En este desafío, la entidad confía en Merkle para trazar un plan que permita a la marca comprender de forma profunda a sus usuarios y sus patrones de navegación dentro de los activos digitales y, así, avanzar en su camino hacia la hiperpersonalización.

 

Modelling

 

Para lograrlo, fue necesario elaborar un proceso de data modelling bien diseñado donde, previamente, estudiamos la naturaleza de los datos para seleccionar la mejor solución tecnológica. En este caso concreto, trazamos un plan de integración de fuentes en Google Cloud para establecer una estructura de datos que habilitase casos de análisis avanzado.

En primer lugar, creamos un ecosistema de tablas dentro de Big Query que estuviese alineado con las necesidades del negocio. Dichas tablas se elaboraron con diferentes niveles de agregación para, así, conocer métricas agregadas a nivel usuario, sesión o hit. Todo ello en un entorno completamente automatizado. 

Diario: Flujo de datos entorno BQ

 

Flujo de datos

Una vez creado dicho ecosistema, se construyó una red de dashboards interactivos sobre los cuales apoyar el reporting personalizado y el conocimiento avanzado de los usuarios.

Dashboards de navegación que ayuda los equipos de desarrollo de producto a organizar las diferentes funcionalidades de los activos digitales de la marca, incluyendo:

  • Seguimiento de los flujos de navegación;
  • Conocimiento sobre cómo interactúan los usuarios con la app del cliente, mostrando una serie de KPIs para medir la importancia de una pantalla concreta de la app o de las acciones que se realizan dentro de ella.

Dashboard para el análisis de cohortes para conocer la vida media del usuario desde su alta y compararla en función del tipo de activo, sistema operativo o canal de adquisición.

Dashboard de audiencias para la activación de las campañas personalizadas de la marca. En una primera fase, se generó una agrupación de usuarios en base a su uso del activo digital, además de un procedimiento actualización de dichos grupos.

Para ello, fue necesario:

  • Crear clústers utilizando autoML para realizar un análisis exploratorio rápido de las variables disponibles y BQ ML para la creación del modelo utilizando el algoritmo de K-means.
  • Clasificar, con periodicidad mensual, todos los usuarios en los clústers del punto anterior, utilizando autoML, que nos permitan generar un modelo de clasificación en poco tiempo y con un buen ajuste.

Posteriormente, se crea un dashboard interactivo que integra el conocimiento obtenido a través de la clusterización de usuarios, los datos de uso de la app obtenidos con Firebase, además de diferentes dimensiones que definen al usuario y su comportamiento ante campañas. Proceso que se automatiza mensualmente.

 

¿Qué resultado hemos obtenido en nuestro caso de data modelling?

 

Un modelo de datos bien diseñado es simple y enmascara la complejidad de la estructura de datos subyacente, permitiendo realizar las consultas de la misma forma intuitiva en la que nos hacemos las preguntas de negocio. Para lograr el éxito en nuestra comunicación empresarial (por ejemplo, en la activación de campañas personalizadas de nuestro caso práctico) se debe conseguir que las relaciones y los flujos de datos entre los diferentes elementos queden bien representados.

En esta ocasión, hemos sido capaces de identificar audiencias, clasificar clientes y analizar su engagement;construir un single customer view en todos sus puntos de contacto para que la marca brindar una oferta contextualizada y personalizada; y ayudar al equipo de desarrollo de producto gracias al conocimiento del comportamiento del usuario.

 

Unirse al debate
En nuestra compañía