Publicado 20/04/2020 15:35

Portaltic.-Los expertos en IA proponen crear programas de recompensas para poder denunciar sesgos o errores de seguridad

Los expertos en IA proponen crear programas de recompensas para poder denunciar
Los expertos en IA proponen crear programas de recompensas para poder denunciar - EUROPA PRESS - Archivo

MADRID, 20 Abr. (Portaltic/EP) -

Un grupo de expertos de empresas especializadas en el desarrollo de Inteligencia Artificial (IA) como Google Brain y OpenAI han propuesto la creación de programas de recompensas en la industria para que los desarrolladores puedan descubrir sesgos o problemas de seguridad en estas tecnologías.

Esta iniciativa pretende que el sector de la IA equipare su escrutinio al del resto de la industria de la tecnología, donde las compañías que crean servicios o dispositivos cuentan con programas de recompensas para premian a quienes descubren problemas o vulnerabilidades en sus productos. Solo en 2019, la comunidad de hackers éticos HackerOne obtuvo 38 millones de euros en estas recompensas.

Los expertos proponen que las recompensas económicas de las empresas sean proporcionales a la gravedad del problema en la IA, así como habilitar formas de contacto con la comunidad de desarrolladores para reportar estos fallos y después de solucionarlos, hacerlos públicos.

Algunos ejemplos de sesgos de los sistemas de IA son los sesgos raciales hacia las personas no caucásicas, que según un estudio reciente se encuentran presentes en la mayoría de sistemas de reconocimiento facial.

"Las recompensas por sesgos o seguridad extenderían el concepto de los programas de recompensas a la IA", como asegura un estudio académico realizado por expertos de IA de compañías como Google Brain, OpenAI e Intel, así como de las universidades de Oxford, Cambridge (Reino Unido), Berkeley, Stanford y California (Estados Unidos), entre otras.

Estas recompensas constituyen "un punto de partida para el análisis y la experimentación", y los expertos contemplan también otro tipo de premios a quienes denuncien problemas de seguridad, protección de la privacidad o interpretabilidad de los sistemas de IA.

OTRAS RECOMENDACIONES

Los expertos han dirigido también otras recomendaciones para garantizar la seguridad y la confianza en el desarrollo de la IA, entre las que se encuentran una coalición para realizar auditorías externas y evaluar estos sistemas.

Asimismo, han aconsejado a las empresas que trabajan en la IA que cuenten con 'equipos rojos' que se opongan a sus puntos de vista a la hora de explorar la seguridad de sus sistemas, así como crear canales colaborativos para compartir más información sobre incidentes relacionados con la Inteligencia Artificial.

El resto de recomendaciones van en línea con los principios para el desarrollo de una IA ética y centrada en el ser humana propuestos por instituciones como la Comisión Europea, y contemplan la necesidad de realizar auditorías de las aplicaciones críticas, investigar la interpretabilidad de sus sistemas y emplear herramientas de protección de la privacidad.

A estas recomendaciones se añaden la de desarrollar funciones de seguridad a nivel de 'hardware', así como estimar con mayor precisión las necesidades de consumo energético para desarrollar una IA.