Analítica web
Reflexiones desde el mercado español de Analítica Web

¿Qué es Quality Assurance?

Se lee en 3 minutos

La analítica web proporciona datos acerca de tu página web, sus usuarios y la relación que existe entre ellos. Permite entender qué aspectos funcionan y cuales no, y predecir (hasta cierto punto) qué va a funcionar, qué no y por qué. Y para conseguir datos coherentes y de calidad, hace falta una recolección de datos de calidad.

Lo anterior es, a estas alturas, evidente para todos los lectores asiduos de este blog, pero hoy se hablará de un aspecto que, en ocasiones, se deja en un segundo plano de forma inmerecida: el Control de Calidad, o Quality Assurance (QA).

¿Por qué Quality Assurance?

Un despliegue incorrecto de la solución de recolección puede resultar una pérdida de datos o, aún peor, datos erróneos. En el mejor de los casos, esto implica un proceso de detección y solución del problema, con el coste en tiempo y esfuerzo asociados. En el peor de los casos, datos incoherentes pueden pasar desapercibidos, dando lugar a conclusiones falsas en el proceso de análisis.

Esta situación inspira pánico en cualquier analista digital, porque da lugar a una pérdida de confianza en el dato, algo que, igual que el six-pack, es fácil perder pero difícil de recuperar. Y si el dato no es fiable, su obtención y análisis fue una pérdida de tiempo.

De ahí la importancia de un proceso de control de calidad efectivo, que minimice los errores en el despliegue y garantice una calidad del dato adecuada. En la práctica, esto se lleva a cabo principalmente mediante validaciones, tema algo que ya hemos visto anteriormente en este post y sobre validación con Charles Proxy en este otro post.

La calidad y alcance de las validaciones repercute directamente en la salud futura del sistema de medición. Es un proceso manual, costoso y repetitivo, pero, sobretodo, necesario si quieres ahorrar problemas en el futuro. Un problema añadido es que las páginas web cambian y evolucionan con el tiempo; cualquier cambio puede afectar a la medición de forma inesperada. Idealmente, habría que realizar un seguimiento periódico para comprobar que todo funciona como debería y poder tomar medidas lo antes posible si no es así.

Ejemplo de validación
Validación con Fiddler, un packet-sniffer útil en estos casos (fuente: elaboración propia)

Peor aún: en la práctica, hacer una validación verdaderamente exhaustiva a mano es inabarcable. Verificar cada tag en cada web de tu site, cada parte de la medición en cada navegador, caso responsive y no responsive, nueva funcionalidad en la web o cambios en su diseño, cambios en un sitio que “rompen” alguna otra cosa inesperadamente y un sinfín de otras posibilidades, hacen necesario decidir el alcance de las validaciones. Es por ello que hay que encontrar un equilibrio entre su nivel de detalle (coste) y el valor de tener garantizado su funcionamiento correcto (beneficio), y asumir que tarde o temprano va a aparecer alguna que otra incidencia.

Y eso, ¿no puede hacerlo otro?

Aquí se nos puede ocurrir la idea de automatizar este proceso. Para inspirarse, uno puede mirar a un mundo en el que este entorno está muy maduro: el del desarrollo software. En bases de código que cambian continuamente, es común que no sólo se realicen builds varias veces al día para comprobar la validez del código, sino también test unitarios, test regresivos, test de aceptación y un largo etcétera, haciendo uso de entornos virtuales dedicados, creados bajo demanda para simular el funcionamiento real de la aplicación.

Esto puede parecer demasiado, pero está claro que algunas ideas pueden aplicarse a nuestro entorno, mediante tecnologías de automatización de navegadores. En concreto, puede resultar interesante distinguir dos aspectos:

  • Garantizar que los tags funcionan correctamente en todas las páginas del site.
  • Verificar la coherencia entre el dato recolectado y la capa de datos creada.

Hay varias herramientas en el mercado que cubren el primer punto de una manera u otra. El punto más complicado es el segundo, porque se reduce, en definitiva, a diseñar test que verifiquen aspectos concretos de la medición (cuando el usuario interactúa de esta manera con mi web, deberían recolectarse estos datos, y no otros). Diseñar y desplegar estos test puede ser una tarea compleja, que requiere unos conocimientos técnicos mínimos. E igual que con las validaciones hechas “a mano”, llega un punto en el que no merece la pena invertir más recursos en mejorar el alcance del control de calidad.

Saber con seguridad cuál es ese punto, sin embargo, es otra historia y es totalmente dependiente del caso particular de cada uno. No obstante, está claro que no prestar la atención que merece a la validación de los datos puede dar lugar a la reimplementación de código en el futuro o, aún peor, repercutir en la calidad y coherencia del dato.

Y tú, ¿cómo te aseguras de la calidad de tus datos?

*Fuente de la imagen: Fiddler

Escribe tu comentario

uno × uno =

Navegar