Google Assistant está trabajando en una función llamada “reconocimiento de voz personalizado

Google comenzó a utilizar el aprendizaje federado en Android en marzo de 2021 para mejorar la precisión de las palabras clave de "Hey Google". Una próxima función de "reconocimiento de voz personalizado" ayudará ahora al Asistente de Google a ser "mejor en el reconocimiento de las palabras y nombres frecuentes de los usuarios."
SIA Team
May 29, 2022

Google comenzó a utilizar el aprendizaje federado en Android en marzo de 2021 para mejorar la precisión de las palabras clave de “Hey Google”. Una próxima función de “reconocimiento de voz personalizado” ayudará ahora al Asistente de Google a ser “mejor en el reconocimiento de las palabras y nombres frecuentes de los usuarios.”

Según Google, han descompilado la versión más reciente de una aplicación de Google Play Store. Se han encontrado varias líneas de código dentro de dichos archivos (llamados APKs en el caso de las apps de Android) que insinúan posibles características futuras cuando las descompilen. Google ha recordado que es posible que nunca lancen estas funciones, y que su interpretación de lo que son puede ser errónea. Sin embargo, las que están más cerca de completarse podrán mostrar a los usuarios cómo serán si se lanzan.

Según las cadenas de las últimas versiones de Android de la aplicación de Google, en los ajustes del Asistente de Google aparecerá el “reconocimiento de voz personalizado” con la siguiente descripción:

Conservará las grabaciones de audio en este dispositivo para ayudar a Google Assistant a mejorar su reconocimiento de lo que dicen los usuarios. El audio permanece en el dispositivo y se puede eliminar en cualquier momento desactivando el reconocimiento de voz personalizado.

La próxima función pretende ampliar las mejoras basadas en el aprendizaje automático más allá de “Hey Google” a los comandos reales del Asistente de los usuarios, en particular los que tienen nombres (por ejemplo, el uso de la voz de los usuarios para enviar mensajes a los contactos) y las palabras pronunciadas con frecuencia. El audio de las expresiones anteriores se guardará en el dispositivo y se analizará para mejorar la precisión de la transcripción en el futuro.

Google ya utiliza un chip de aprendizaje automático en dispositivos como la segunda generación de Nest Hub y Mini para procesar localmente las consultas más comunes de los usuarios “para un tiempo de respuesta mucho más rápido”, y ese concepto podría ahora expandirse más allá de los dispositivos domésticos inteligentes a Android.

Dada la postura de Google sobre Assistant y la privacidad de la voz, es casi seguro que esta será una función opcional, similar a como lo es actualmente Assistant settings > “Help Improve Assistant”. Según la descripción disponible hoy, “el audio permanece en este dispositivo” y se elimina cuando se desactiva la capacidad. Mientras tanto, si los usuarios desactivan el reconocimiento de voz personalizado, Google advierte:

Si los usuarios desactivan esta función, el Asistente del usuario será menos preciso a la hora de reconocer nombres y otras palabras que los usuarios digan con frecuencia. Este dispositivo borrará todo el audio utilizado para mejorar el reconocimiento de voz de los usuarios.