Publicado 21/07/2020 14:01CET

Portaltic.-Ofuscar el género de una persona, una nueva propuesta para mantener la privacidad con los asistentes virtuales

Ofuscar el género de una persona, una nueva propuesta para mantener la privacida
Ofuscar el género de una persona, una nueva propuesta para mantener la privacida - UNSPLASH/CC/LAZAR GUGLETA

   MADRID, 21 Jul. (Portaltic/EP) -

   Investigadores de la Universidad Tecnológica Chalmers y del Instituto de Investigación Estatal de Suecia han desarrollado un algoritmo protege la privacidad de las personas cuando hablan ante asistentes virtuales mediante la ofuscación de su género.

   La aproximación propuesta para preservar la privacidad con asistentes virtuales como Alexa, Siri o Asistente de Google, busca ofuscar tributos de las personas, como el género, sin afectar a la entonación o el contenido del discurso, como recoge Venture Beat.

   Esto lo consiguen con un tipo de algoritmo denominado red generativa antagónica que elimina de la señal de audio información sensible y añade información sintética para mantener un discurso realista.

   Para ello, esta red ha sido previamente entrada para, por un lado, generar muestras y, por otro, diferenciar entre las muestras generadas y las muestras reales, empleando una base de datos abierta con más de 10.000 muestras de audio que pronunciaban los números del uno al nueve en inglés.

   Los investigadores señalan que esta aproximación puede dificultar empíricamente determinar el género de una hablante.