Tecnología

Google enseña a dispositivos a interpretar lenguaje no verbal

Google enseña a dispositivos a interpretar lenguaje no verbal

Google puso el radar en el centro de nuevos trabajos que buscan potenciar el lenguaje no verbal en dispositivos inteligentes. Principalmente ara que estos sepan cuándo el usuario presta atención para iniciar una acción.

El equipo de Advanced Technology and Projects (ATAP) de Google está utilizando el radar soli y la tecnología de aprendizaje automático para crear una nueva generación de dispositivos «socialmente inteligentes«.

Estos trabajos buscan «reimaginar» la interacción con los dispositivos, que hasta ahora se basó, además de en el control táctil, en la voz y en los gestos faciales. La nueva propuesta atiende al movimiento corporal para detectar si el usuario quiere o está listo para interactuar.

Para ello, están enseñando a los dispositivos a aprender el lenguaje no verbal y el contexto social. Y una forma de comprender que puede darse una interacción empieza por saber si el usuario, al acercase, superpone su espacio personal con el del dispositivo.

Los matices del lenguaje corporal también tienen un papel destacado. Por ejemplo, la orientación de la cabeza, para identificar el ángulo en el que la persona está prestando atención al dispositivo.

La finalidad de esta investigación también recoge, no solo la interacción a partir del lenguaje no verbal, sino también la anticipación a dicha interacción. Esto, para que el dispositivo sepa «cuándo es el momento correcto» para iniciarla, o cuándo una persona simplemente pasa por delante.

Y todo ello de una forma no invasiva, en segundo plano.

«La experiencia puede ser bastante mágica, tener dispositivos con gracia social. Que nos comprendan y se anticipen en nuestro día a día de una forma más considerada y encantadora», indican en ‘In the Lab with Google ATAP: Nonverbal Interactions with Soli Radar’.

Más contenido por Redacción CDN

Más noticias