Analítica Digital: La ciencia de hacer preguntas, no SQL

Compartir:

Potente sesión con Víctor de la Iglesia, Senior Solutions Consultant en Adobe, en la que reflexionamos cómo analizar sin matemáticas, sin SQL, sin ML, simplemente diseñando buenas preguntas y poniendo al cliente en el centro de éstas.

Como bien nos indica Víctor, como analistas, a veces, nos conformamos con la realización de un Dashboard eficaz, con una Query muy técnica o con un simple “el conversión rate ha subido”, pero no podemos ni debemos quedarnos ahí. Ya que analizar datos digitales consiste en gran parte, en realizar buenas preguntas, preguntas que sean capaces de responder diferentes hipótesis y que nos ayuden a mejorar el negocio en diversos aspectos.

Víctor destaca cinco conceptos relevantes, que le han ayudado en su labor como analista digital a la hora de formular preguntas y extraer inteligencia de los datos.

El sentido común: es algo verdaderamente clave cuando estamos haciendo un análisis, esa facultad innata (no siempre utilizada), que tenemos todos y que como analistas nos ayudará a guiar el proceso de análisis en el que nos encontremos.

Un gran problema que tenemos en el mundo de la analítica digital es la cantidad inmensa de datos que existen, que debemos depurar, analizar y activar, en ocasiones puede llegar a ser abrumador, pero no debemos desesperar.

Aquí es donde debemos utilizar nuestro sentido común, bien conocido por ser esa combinación de intuición (que todos deberíamos tener), y que se suma con esa experiencia basada en aprender de lo pasa alrededor de lo que estamos haciendo, aspecto fundamental para todo analista.

La clave es entender la compañía u organización en la que estás trabajando, te dará gran ventaja en tu rol como analista, ya que, comprender sus metas, sus objetivos, qué es lo que hace, por qué está constituida la empresa, promoción, precio, todo lo que engloba su acción estratégica, te proporcionará una base muy sólida a la hora de formular preguntas coherentes.

Evidentemente, Víctor nos habla de los famosos KPIs (Key Performance Indicators), que nos guían en nuestro día a día como analistas, pero recordando que son métricas agregadas que pueden esconder valiosos insights, que pueden transformar por completo la experiencia del usuario. Debemos, por tanto, ahondar y entender por qué las medias suben y bajan para poder proponer soluciones que aporten valor y cambio.

Estas medias bien estructuradas y ordenadas nos permitirán entender si el negocio va bien o va mal, ahí está parte de lo esencial, los números, la parte matemática de lo que está pasando en el negocio. Algo muy importante como analistas es no solo quedarnos en esa parte matemática, si no entender cómo ese usuario se está moviendo alrededor de los canales en los que estamos trabajando.

Todo análisis empieza con una hipótesis: algo que pasa muchísimo como analistas, es que, según nuestro superior nos pregunta por un problema en concreto, vamos directamente al dato, y ese es un error muy común entre los analistas, tenemos primero que diseñar una buena hipótesis, es decir, averiguar el porqué, no el qué.

Hay que tener cuidado con los KPIs a la hora de crear una hipótesis, no hay que creer en ellos fielmente, porque no dejan de ser unas medias agregadas que no dicen “nada”.

La clave del analista, es descubrir y bajar a la realidad por qué ese indicador está subiendo o está bajando. Ese es el DDA, (Deep Dive Analysis), bajar al barro dentro de ese lago de datos y descubrir la causa que está haciendo que el número suba o baje, es ahí precisamente donde obtendremos la información de valor y por la que nuestros superiores nos están preguntando.

No debemos olvidarnos de nuestros compañeros, siempre podremos lanzarles la pregunta al equipo de IT, y eso nos va a ayudar mucho a entender qué está pasando, a tener más contexto o incluso que el sentido común nos haga avanzar más rápido.

Dibuja los posibles caminos del cliente: es de vital importancia el documentar todo lo que estamos haciendo con los datos. Si tenemos una hipótesis principal, en base a eso se analizará y se harán diferentes preguntas sobre el problema para intentar llegar a la solución más eficaz.

Por otra parte, los diferentes caminos que toma el cliente durante su proceso de compra o consulta, también se deben documentar, más tarde, con todos los datos recopilados acudiremos a la tecnología para intentar explicar si esos comportamientos están ocurriendo o no tal y como los teníamos reflejados en nuestras hipótesis.

La tecnología no puede ser la base de la analítica, pero sí nuestra gran aliada: hoy en día, nos encontramos con un amplio abanico (quizás demasiado amplio) de herramientas diferentes, muchas de diferentes tecnologías lo que nos hacen en ocasiones es bloquearnos respecto a nuestra capacidad de ser creativos o de pensar esas preguntas utilizando nuestro sentido común. Se podría decir que estamos sobreexpuestos a herramientas y tecnologías de analítica y hacemos uso de ellas como primera opción, en vez de usar la materia gris de nuestro cerebro.

Pero, después de haber utilizado nuestro querido poder mental, si hablamos de tecnología, tenemos que dejar claro que SQL no es analizar, es preparar datos, SQL no deja de ser un lenguaje que se inventó para sacar información de entornos complejos y poder tener disponible esos datos en formato tabla que podemos luego visualizar, pero recuerda, que nos podemos perder en el inmenso océano de datos si no hacemos buenas preguntas previamente o si no trazamos un plan analítico centrado en el negocio y sus clientes.

El Machine Learning: sin duda nos ayuda a tener respuestas, pero no nos proporciona buenas preguntas, tiene que ser el apoyo para hacer tareas que tardaríamos días en resolver.

En este “loco” mundo de la analítica hay muchas herramientas que nos facilitan enormemente la vida, pero, por desgraciaa no son todas así. A pesar de que podamos hacer análisis sin necesidad de SQL, seguimos teniendo como analistas esa necesidad de seguir preguntándonos nosotros mismos antes de preguntar al dato.

Víctor también menciona algo muy a tener en cuenta y es el llamado Time to insight, el cuál hace referencia a cuánto tiempo tardamos desde que se empieza a formular preguntas, preguntas hechas por nuestro sentido común o por nuestro propio superior y cuánto hemos tardado en poder darles respuesta. Sin lugar a dudas, cuanto más bajo sea nuestro time to insight, será mucho mejor para la compañía siempre y cuando vayamos por el camino correcto.

Un buen analista no hace dashboards, hace presentaciones, Víctor profundiza en que uno de los factores más importantes del análisis de datos es saber cómo presentarlos y saber dónde está el problema y cuál es la solución. Nos recomienda encarecidamente hacer gráficos para representar el dato y acompañarlas con  un texto más específico para reforzar el mensaje y apoyar siempre con una buena recomendación.

Quedaría todo resumindo en estos grandes cinco puntos:

  • Utiliza siempre el sentido común
  • Preguntar al dato antes de analizar
  • Documenta todas las diferentes posibilidades
  • Apóyate siempre en la tecnología
  • Insights mejor en PPT

Víctor concluye la charla con una gran afirmación y es que “la evolución de la tecnología no es que nosotros como analistas hagamos más código, sino que cada vez el analista se va dedicar a pensar más en vez de montar una sentencia de SQL


Garaje Data Trends, surge de la colaboración entre dos empresas líderes, Gen/D y Garaje de Ideas, ambas unidas con el enfoque de aportar valor a la comunidad data en constante crecimiento.

Cada dos semanas os traeremos información de actualidad y clases gratuitas del mundo del data.

<<Si quieres estar siempre a la última, suscríbete aquí a la newsletter de Garaje Data Trends>>

Gracias a estas clases gratuitas, queremos acercaros al maravilloso y loco mundo DATA, guiados siempre de profesionales en activo en las empresas más potentes del país.

Contenido hecho con mucha ilusión, por y para vosotros.