Publicado 20/07/2020 14:05

Portaltic.-Mutualidad de la Abogacía, primera entidad en asociarse a OdiseIA, Observatorio del Impacto Social y Ético de la IA

Mutualidad de la Abogacía, primera entidad en asociarse a OdiseIA, Observatorio
Mutualidad de la Abogacía, primera entidad en asociarse a OdiseIA, Observatorio - MUTUALIDAD DE LA ABOGACÍA/ODISEIA

   MADRID, 20 Jul. (Portaltic/EP) -

   Mutualidad de la Abogacía, entidad aseguradora sin ánimo de lucro, se ha convertido en la primera entidad que se incorpora como socio institucional a OdiseIA, Observatorio del Impacto Social y Ético de la Inteligencia Artificial (IA).

   La entidad, pionera en el estudio de esta tecnología a través de su Comité de Ética en Inteligencia Artificial (CEIA), da un paso más en ese compromiso al integrarse en esta iniciativa independiente y multidisciplinar que persigue abrir el debate a toda la sociedad, como informan en un comunicado.

   Mutualidad de la Abogacía ha considerado que los objetivos de OdiseIA, que incluye la concienciación sobre el impacto ético de esta disrupción tecnológica, están "perfectamente alineados" con los de la propia entidad.

   En este sentido, el CEIA de la Mutualidad, creado en septiembre de 2019, tiene como misión vigilar los usos e impactos de la Inteligencia Artificial en la Mutualidad, para garantizar que la recopilación, el alojamiento y el uso de los datos se realicen de manera ética, transparente y democrática para responder a la posición marcada por la Mutualidad y las instituciones competentes.

   Por su parte, OdiseIA, espacio de pensamiento, debate y acción con expertos, "enriquece" esa visión a través de la difusión e investigación, y con la creación de un espacio de debate público para la reflexión colectiva sobre la Inteligencia Artificial.

Como ha explicado el presidente de la Mutualidad, Enrique Sanz Fernández-Lomana, "la inteligencia artificial está cada vez más presente en la forma en que nos relacionamos con el mundo, y también en la toma de decisiones. Por ello debemos aplicar a esa inteligencia artificial el mismo criterio, los mismos valores y principios éticos, que aplicábamos a las decisiones que tomábamos sin esta tecnología".

   Siguiendo esto, Sanz Fernández-Lomana defiende que "al ser una ética programada, matemática", se deben "supervisar sus sesgos y comprobar que las decisiones que toma son justas y éticas", añade.

   Por su parte, la presidenta de OdiseIA, Idoia Salazar, ha señalado que "sólo" se llegará a construir una inteligencia artificial confiable "si sumamos fuerzas de expertos de diferentes disciplinas". Con Mutualidad Abogacía -junto a universidades, empresas y organizaciones públicas y privadas de distintos sectores- señala que es "un orgullo servir como altavoz para resaltar las buenas prácticas de la inteligencia artificial y mitigar las repercusiones sociales negativas de su uso".

BUENAS PRÁCTICAS PARA EL USO ÉTICO DE LA IA

   Junto con los sectores de salud, transporte y defensa, el sector del seguro es uno de los más expuestos a los efectos secundarios no deseados de la IA por su impacto en la vida de las personas. Es por ello que ambas entidades entienden que es importante poner el foco en el uso ético de esta tecnología.

   OdiseIA y la Mutualidad de la Abogacía colaborarán en la generación de buenas prácticas que sirvan como guía para el sector en España, así como en diferentes actividades que fomenten la conversación sobre IA responsable entre las aseguradoras.

   Estudios y experimentos recientes han demostrado que los algoritmos de identificación de imágenes tienen importantes sesgos racistas, sexistas y de otros tipos como los relacionados con el lugar de residencia o la edad del sujeto, que trasladan prejuicios plenamente humanos a decisiones supuestamente automatizadas y por tanto neutrales a priori mediante fórmulas matemáticas.

   A juicio de los expertos, garantizar la construcción ética y garantista de los algoritmos que van a tomar decisiones en décimas de segundo sobre un perfil individual es "el gran reto" al que se enfrenta esta disruptiva tecnología.