Entrenamiento controlado por voz con Google Assistant

[ad_1]


Publicado por John Richardson, ingeniero asociado

Con decenas de millones de instalaciones de la aplicación adidas Running, los usuarios recurren a adidas todos los días como parte de su rutina de salud y ejercicio. Al igual que muchos en la industria, adidas reconoció la importancia de hacer que sea lo más fácil posible para los usuarios lograr sus objetivos de acondicionamiento físico en este mercado en constante evolución, y hacer que su aplicación esté disponible en Wear fue una opción natural. adidas no se limitó a llevar su aplicación para correr al reloj, sino que también reconoció que en una situación de usuario como un entrenamiento, la capacidad de interactuar con la aplicación con las manos libres o incluso sin los ojos simplificaría aún más la experiencia del usuario y podría interactuar con la aplicación.

Integración del Asistente de Google

Para habilitar el control de manos libres, adidas recurrió al Asistente de Google y las Acciones de aplicaciones, que permiten a los usuarios controlar las aplicaciones con su voz utilizando intenciones integradas (BII). Los usuarios pueden realizar tareas específicas por voz o responder a tareas como empezar a correr o nadar.

La integración de los BII de salud y fitness fue una simple adición que los desarrolladores de Android de adidas hicieron en su IDE por declaración. etiquetas en su archivo de accesos directos.xml para crear una experiencia consistente entre la aplicación móvil y una interfaz de reloj. Es un proceso que se ve así:

  1. Primero, el asistente analiza la consulta del usuario utilizando la comprensión del lenguaje natural e identifica el BII correspondiente. Por ejemplo, START_EJERCICIO para empezar un entrenamiento.
  2. En segundo lugar, el asistente cumple la intención del usuario al iniciar la aplicación con un contenido o acción específicos. Junto a START_EJERCICIOLos usuarios también pueden detener (PARAR_EJERCICIO), Romper (PAUSA_EJERCICIO) o continuar (RESUME_EJERCICIO) su formación. Aquí también se pueden agregar comentarios hápticos o golpes para indicar si la solicitud de un usuario fue exitosa o no.

Debido a que App Actions se creó en Android, el equipo de desarrollo pudo implementar rápidamente. Y al trabajar con las API de Health Services y Health Connect, cada una de las cuales admite sensores en tiempo real y datos de salud, los usuarios finales pueden tener una experiencia cohesiva y segura en dispositivos móviles y Wear OS.

Imagen en movimiento que muestra el lanzamiento de la aplicación adidas Running a través del Asistente de Google en un dispositivo portátil

“Lo emocionante de Assistant y Wear es que la combinación realmente ayuda a nuestros usuarios a lograr sus objetivos de acondicionamiento físico. La capacidad de un usuario de usar su voz para realizar un seguimiento de su entrenamiento lo convierte en una experiencia única y muy accesible”, dijo Robert Hellwagner, Director de Innovación de Producto en adidas Runtastic. "Estamos entusiasmados con la posibilidad de lo que es posible al permitir interacciones y experiencias basadas en voz para nuestros usuarios a través de App Actions".

Aprende más

Habilitar el control por voz para desbloquear contextos manos libres y ojos libres es una manera fácil de crear una experiencia de aplicación más fluida para sus usuarios. Para traer interacciones de diálogo naturales a su aplicación, lea nuestra documentación hoy, explore cómo construir con uno de nuestros laboratorios de código o suscríbase a nuestra lista de reproducción de YouTube de App Actions para obtener más información. También puede registrarse para desarrollar para Android Health Connect si está interesado en unirse a nuestro EAP de Google Health and Fitness. Para pasar directamente a la creación de esta integración, obtenga más información sobre la integración de WearOS y App Actions.


[ad_2]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir