Publicado 05/08/2020 18:02CET

Portaltic.-La vulnerabilidad 'model hacking' logra engañar a los sistemas de reconocimiento facial

La vulnerabilidad 'model hacking' logra engañar a los sistemas de reconocimiento
La vulnerabilidad 'model hacking' logra engañar a los sistemas de reconocimiento - PIXABAY - Archivo

   MADRID, 5 Ago. (Portaltic/EP) -

   Los avances en IA permiten crear imágenes rostros de personas generados de forma artificial y cada vez más realista, una tecnología que deja expuestos a los sistemas de reconocimiento facial, como los de la policía o aeropuertos, a la vulnerabilidad 'model hacking'.

   Este fallo de seguridad, descubierto por la compañía de ciberseguridad McAfee y presentado en Black Hat 2020, permite hackear un sistema de reconocimiento facial para clasificar a un individuo como una persona distinta, manteniendo la apariencia fotorrealista del individuo original.

   Conocido como 'Adversarial Machine Learning' o AML, el 'model hacking' es el estudio y diseño de ataques adversos contra modelos de Inteligencia Artificial (IA). En el ciclo de aprendizaje de la IA, el modelo se entrena continuamente a través del uso de un algoritmo adversario, que valora la credibilidad del resultado.

   Para probar la vulnerabilidad 'model hacking' y su posible impacto en sistemas de reconocimiento facial, McAfee combinó dos fotografías de pasaporte de dos personas reales mediante esta técnica, dando como resultado dos imágenes fotorrealistas y aparentemente iguales, pero con pequeñas diferencias.

   De esta manera, la compañía de ciberseguridad ha replicado un sistema de reconocimiento facial real funcional y ha conseguido que, enseñando estas imágenes artificiales, un escáner perciba como la misma a personas diferentes, debido al propio funcionamiento de las redes adversarias, las mismas con que se entrenan los sistemas.

   La vulnerabilidad descubierta por McAfee puede afectar a cualquier sistema de reconocimiento facial que se base únicamente en IA y aprendizaje automático, ya que la compañía ha asegurado que cualquier persona real sí que advertiría las diferencias entre las imágenes que identifica como iguales el sistema automático.