Publicado 13/11/2020 14:13

Portaltic.-Amazon acelera las cargas de trabajo de Alexa con EC2 y el chip Inferentia

Echo Dot
Echo Dot - AMAZON

   MADRID, 13 Nov. (Portaltic/EP) -

   Amazon ha anunciado la migración de la mayor parte de las cargas de trabajo de su asistente Alexa al servicio web EC2, que funciona con el chip propio Inferentia, diseñado para acelerar las cargas de trabajo de aprendizaje profundo.

   Inferentia es un chip diseñado para acelerar las cargas de trabajo de aprendizaje profundo que la compañía presentó por primera vez en 2018, que funciona con Amazon EC2, un servicio web que simplifica el uso de la informática en la nube a escala web.

   Ahora, Amazon ha anunciado en su blog oficial que lo ha aplicado a Alexa, su asistente digital basado en la nube, lo que ha resultado en una reducción de la latencia del 25 por ciento y del 30 por ciento de los costes en comparación con las instancias basadas en GPU de los trabajos de carga de texto a voz de Alexa.

   El "cerebro" de Alexa se encuentra en la nube, desplegado en los servidores de Amazon (AWS). Es allí donde se realiza el procesamiento de la interacción entre el usuario y el asistente, para que el primero tenga su respuesta de forma inmediata.

   En concreto, los chips presentes en el dispositivo con Alexa detecta el comando clave que despierta al asistente y activa el micrófono para registrar la petición del usuario. Esta petición, el sonido, se convierte en texto (lo que se llama reconocimiento automático de voz) y se analiza en la nube, para poder comprender lo que significa.

   Esta segunda parte de análisis es lo que se denomina comprensión de lenguaje natural, como apuntan desde Amazon, del que se obtiene una Intención (lo que quiere el usuario) y una serie de parámetros asociados (por ejemplo, el código postal si el usuario ha preguntado por el tiempo). Entonces, Alexa lo procesa y ofrece una respuesta al usuario.

   Para la respuesta, Alexa necesita convertir ese texto de nuevo en voz, que se retransmitirá a través del dispositivos (por ejemplo, un altavoz Echo) para que lo escuche el usuario y obtenga su respuesta.

   En la construcción de la frase con la respuesta que se ofrece al usuario y sonido natural intervienen modelos de aprendizaje automático. La última fase, pasar de texto a voz, emplea modelos basados en unidades de procesamiento gráfico (GPU) para ejecutar las cargas de trabajo, pero la novedad anunciada por Amazon es que el equipo responsable de Alexa ha migrado la mayor parte a EC2 e Inferentia.