Analítica web
Reflexiones sobre madurez digital, datos y tecnología

Sobredosis de datos

Se lee en 2 minutos

En 2010, la humanidad había creado más de 800 exabytes de información, contando desde los tweets, hasta fotos, videos, presentaciones de diapositivas etc. Estos son 800 miles de millones de gigabytes. Siendo más concreto, desde el nacimiento de la civilización hasta 2003 solo se habían creado cinco exabytes, cantidad que ahora creamos cada dos días.

Hal Varian, economista jefe en Google, prevé que en 2020 se habrán creado 53 zettabytes (53 trillones de Gigabytes) de información. Claramente una progresión exponencial que a día de hoy no parece que vaya a cambiar.

¿Y qué nos quieren decir estos números?

Son cantidades de información asombrosas, y aunque un analista no se tenga que enfrentar a todas ellas, sí muestran la tendencia en todos los campos: cada vez hay más datos a analizar.

Si bien esto puede parecer excelente, pues podrá darnos mejores conclusiones y se podrán tomar mejores acciones, hay que pararse a pensar: ¿es realmente todo relevante?

“We used to be calorie poor and now the problem is obesity. We used to be data poor, now the problem is data obesity.” – Hal Varian

Como apunta Hal Varian, existe obesidad en los datos. Mientras que puede haber datos que resulten útiles, existen muchos otros que lo único que generarán es confusión.

Igual que en el caso de la web, en el campo de la analítica existe dicha obesidad. Un analista experimentado podrá moverse entre estos ríos de datos sin perderse ahora mismo, pero cada vez se hará más complicado. Pero aunque un especialista pueda, no tiene sentido que un cliente tenga que ver eso.

Pantallazo del (sobrecargado) menú de SiteCatalyst
Pantallazo del (sobrecargado) menú de SiteCatalyst

Y no sólo se queda en una herramienta, sino que según las necesidades de cada uno pueden hacer falta varias para analizar webs, entornos sociales, etc.

¿Cómo solucionarlo?

Es necesario un sistema sencillo, automático, usable, que pueda acceder a datos de varias herramientas (configurables para el cliente), multiplataforma (para el acceso a los datos), y que simplifique la extracción, procesado y publicación al analista y la visualización al cliente.

Eliminar esa sobredosis de datos es primordial para que las acciones a tomar tengan auténtico valor. De otro modo los árboles no nos dejarían ver el bosque.

Pero no se trata simplemente de eliminar elementos de la interfaz de las herramientas, se trata de procesar el conjunto de datos necesarios para conseguir datos que sean realmente útiles. Continuando el símil de Hal Varian, los datos son como la comida, y hay que cocinarlos para que sean realmente nutritivos.

A día de hoy las herramientas de analítica y optimización están trabajando para ofrecer soluciones sobre la definición antes marcada, pero por mucho que avancen siempre carecerán de un campo: la integración entre herramientas (nunca integrarán nada de un competidor y, no existiendo ninguna herramienta que lo haga todo bien en todos los terrenos, seguimos necesitando más de una). Por esto es necesario que la solución sea third-party y lo suficiente extensible como para adecuarse a las herramientas deseadas de cada cliente, además de las características antes mencionadas.

En el momento en el que se disponga de un sistema que cumpla todas estas premisas la toma de decisiones de negocio en la empresa será mucho más directa, segura, y sobre todo efectiva.

Declaraciones de Hal Varian sacadas de Think Quarterly

Escribe tu comentario

Nueve − 7 =

Navegar