Analítica web
Reflexiones desde el mercado español de Analítica Web

Adobe Voice Analytics: analiza tu asistente digital

Se lee en 2 minutos

Este mes llega el nuevo Google Home a nuestras vidas. Un nuevo asistente digital que nos ayudará a estar más conectados e interactivos que nunca. Pero, ¿estamos preparados para esta nueva tecnología?, ¿qué información obtiene este tipo de dispositivos?, ¿cómo podemos medir y analizar estas interacciones?

Los dispositivos habilitados para voz hacen que la vida sea más fácil para los consumidores, pero ha sido un desafío hasta ahora para los especialistas en marketingA través de herramientas como Adobe Analytics, es posible capturar y analizar datos de voz para todas las plataformas principales, incluidas Amazon Alexa, Apple Siri, Google Assistant, Microsoft Cortana y Samsung Bixby. Esto permite ofrecer experiencias de cliente más personalizadas a través de interfaces basadas en voz.

Paso a paso

Aunque tardaremos un tiempo en migrar nuestras ya habituales interfaces de ratón, teclado y pantalla a una tan simple como la propia voz, ya no es tan extraño pensar en un escenario en el que hablamos directamente a nuestros dispositivos. Frases como “OK Google, dime el tiempo para mañana” o “Alexa, quiero escuchar la lista de éxitos de Elvis Presley” se han convertido en una manera natural de interactuar con nuestros dispositivos conectados.

Si está conectado, se puede medir y analizar.

Adobe Voice Analytics nos proporciona las herramientas para medir y optimizar los posibles tipos de experiencias, abriendo un nuevo camino a las marcas para presentar servicios o productos a sus clientes.

Pero, ¿cómo funciona?

La mayoría de los asistentes digitales siguen un mismo patrón de arquitectura:

  1. Dispositivo: el micrófono permite al usuario realizar una pregunta.
  2. El asistente: el dispositivo interactúa con el servicio del asistente, aquí ocurre casi toda la “magia”. En este punto es donde el diálogo es “entendido” mediante distintos patrones y se transmiten los detalles de la petición a la APP que la manejará.
  3. La APP: puede ser una APP de voz o una APP de teléfono. La APP responderá a la petición y a su vez al asistente y este modificará la respuesta de manera humanizada para devolverla al usuario.

Es en este último momento, en la APP, donde más sentido tiene introducir la analítica. Pero, aún así, existen dos espacios diferentes donde podemos intervenir:

  • Cuando la petición es enviada a la APP. Quizás necesitemos más contexto sobre el usuario y nos gustaría consultar a los segmentos de Audience Manager para obtener información adicional para responder al usuario.
  • Tras la respuesta de la APP. Si simplemente queremos “grabar” qué ocurre con el usuario para una futura optimización, podemos enviar los datos a Analytics para tener una foto completa de qué se ha solicitado y qué se ha respondido.

Analizando intenciones

Cada asistente digital tiene algoritmos que detectan “intenciones” que se transmiten de manera como sucintas peticiones a la APP. Por ejemplo si un usuario dice “Siri, envía 20 euros de mi banco a Esteban por la comida en la pulpería“, la intención sería algo similar a “enviar dinero”.

Si se informa a Analytics en cada una de estas peticiones con una eVar, seremos capaces de realizar un informe de las intenciones más “conversacionales”. Incluso, podemos realizar informes de las peticiones que no han tenido una intención y esto nos permitirá analizar las posibles preferencias insatisfechas de los usuarios para en un futuro poder suplir esos huecos con otros servicios/productos de distintas marcas.

Con un buen análisis en base a la petición anterior a Siri, éste tras transmitir la orden del pago a la APP del banco, podría recomendar al usuario dónde comer pulpo la próxima vez o, incluso, sugerirle encargar comida gallega a domicilio en base a sus gustos e histórico. ¿Dónde estará el límite? Ya lo descubriremos.

 

Escribe tu comentario

1 × 2 =

Navegar