Publicado 09/07/2021 14:54

Portaltic.-Facebook lleva 3 años sin aplicar una de sus normas de contenido, según su Consejo asesor

Archivo - Facebook, recurso.
Archivo - Facebook, recurso. - KON KARAMPELAS / UNSPLASH - Archivo

   MADRID, 9 Jul. (Portaltic/EP) -

   Facebook e Instagram llevan desde 2018 sin aplicar una de sus normas de contenido, que establece una excepción que permite hablar sobre los derechos humanos de personas u organizaciones peligrosas, como ha alertado el Consejo asesor de contenido de Facebook, el organismo de expertos independientes que aconseja a Facebook en casos complejos de moderación.

   Esta advertencia se ha producido en el contexto de una resolución del Consejo asesor por la eliminación de una publicación de Instagram de enero de este año que alentaba a debatir la reclusión solitaria en una cárcel de Turquía de Abdullah calan, un miembro fundador del Partido de los Trabajadores de Kurdistán (PKK).

   Debido al uso de la violencia por parte del PKK, tanto el partido como calan se designaron como entidades peligrosas de conformidad según la política sobre personas y organizaciones peligrosas de Facebook, por lo que el post se borró y Facebook rechazó su readmisión.

   No obstante, en una resolución de Consejo asesor de contenido de Facebook publicada este jueves, este ha alertado de que "por accidente no se trasladó" una parte de la política sobre personas peligrosas de Facebook, creada en 2017, al sistema de revisión que usan sus moderadores desde 2018.

   Esta pauta, que "abre el debate sobre las condiciones de reclusión de personas designadas como peligrosas", hizo que el contenido volviese a permitirse en Instagram el pasado 23 de abril.

   Asimismo, Facebook informó al Consejo asesor de que se encontraba "trabajando en una actualización de sus políticas a fin de permitir que los usuarios debatan sobre los derechos humanos de personas designadas como peligrosas". La publicación eliminada no apoyaba a calan ni al PKK, solo animaba a debatir sobre sus derechos humanos por su reclusión.

   En sus conclusiones, el Consejo ha asegurado que la decisión de eliminar el contenido por parte de Facebook "no fue coherente" con sus propias normas, y se ha afirmado que le preocupa "que Facebook haya pasado por alto una pauta específica sobre una excepción importante de la política durante tres años".

   El Consejo considera que, debido al error de Facebook, es posible que se hayan eliminado por equivocación muchas otras publicaciones desde 2018 y que los informes de transparencia de Facebook no bastan para evaluar si este tipo de error refleja un problema del sistema.

   Por ello, los expertos independientes han pedido a Facebook que restituya la norma extraviada de 2017 de inmediato, que evalúe sus procesos de revisión a publicaciones sobre personas y organizaciones peligrosas y que publique estos resultados, así como que garantice que sus moderadores reciben la formación adecuada.

   Asimismo, también ha pedido a Facebook que agregue una explicación más clara en sus políticas sobre cuándo considera que una publicación apoya a un líder peligroso y cómo los usuarios pueden dejar claras cuáles son sus intenciones.