Publicado 06/09/2021 12:21CET

VÍDEO:Facebook desactiva sus recomendaciones de vídeos después de que su IA identificase a personas negras como primates

Publicación en Facebook.
Publicación en Facebook. - JOSHUA HOEHNE / UNSPLASH

MADRID, 6 Sep. (Portaltic/EP) -

Facebook ha pedido disculpas por un error en el mecanismo de Inteligencia Artificial (IA) que recomienda vídeos en su red social, después de que esta identificase a personas de raza negra como primates, y ha desactivado este sistema hasta investigar el motivo del error.

El error de Facebook apareció para algunos usuarios de la red social después de ver un vídeo del Daily Mail que mostraba a personas de color. La IA de recomendación de vídeos les aconsejaba 'seguir viendo vídeos de primates', como ha informado el diario The New York Times.

"Fue claramente un error inaceptable", ha reconocido un portavoz de Facebook en declaraciones a The Verge, donde ha pedido disculpas a los usuarios que hayan podido ver estas "recomendaciones ofensivas".

Asimismo, Facebook ha deshabilitado completamente su función de recomendaciones de vídeos a través de la IA -que analiza automáticamente el contenido de los vídeos para sugerir otros relacionados- hasta investigar la causa del error y prevenir que vuelva a ocurrir de nuevo.

"Si bien hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer", ha admitido la compañía estadounidense.

IMÁGENES DISPONIBLES EN EUROPA PRESS TELEVISIÓN

URL DE DESCARGA:

https://www.europapress.tv/portaltic/595838/1/fb-desactiva-r...

TELÉFONO DE CONTACTO 91 345 44 06

595838.1.260.149.20210906122138
Vídeo de la noticia
Contador