Publicado 17/09/2020 18:59CET

Portaltic.-Facebook archivará los grupos que lleven tiempo sin administrador para combatir la desinformación y el odio

Facebook archivará los grupos que lleven tiempo sin administrador para combatir
Facebook archivará los grupos que lleven tiempo sin administrador para combatir - PIXABAY - Archivo

   MADRID, 17 Sep. (Portaltic/EP) -

   Facebook ha tomado medidas para hacer más seguros frente a la violencia y la desinformación los grupos de su red social homónima, de los que eliminó 12 millones de contenidos por discurso del odio en el último año, y ha comenzado a exigir que los grupos tengan un administrador o comenzará a eliminarlos pasado un tiempo.

   La plataforma propiedad de Mark Zuckerberg ha endurecido las sanciones que aplica a los miembros de grupos que no respetan sus normas de su comunidad, como ha anunciado Facebook en un comunicado.

   De esta manera, los administradores y creadores de grupos sancionados no podrán crear nuevos grupos durante un tiempo determinado, y quienes vulneren las normas del grupo necesitarán recibir la aprobación del moderador para que sus publicaciones sean visibles en los siguientes 30 días.

   Para asegurar esta norma, la red social comenzará a exigir que los grupos tengan un administrador en situaciones en las que estos abandonan el grupo, y enviará sugerencias a usuarios. Después de un tiempo no determinado, si los grupos siguen sin administrador quedarán archivados.

   Facebook eliminó durante el último año 1,5 millones de contenidos en los grupos de su red social por actividades de odio y 12 millones por discurso del odio, y la compañía eliminó un millón de grupos por este motivo, según datos de la red social.

   La compañía estadounidense ha anunciado otras medidas contra los grupos que promueven la violencia y los ha excluido de las recomendaciones, restringido en búsquedas y en el futuro reducirá su visibilidad en el 'feed' de noticias.

   Estos grupos se eliminarán de forma automática cuando comiencen a hablar de llegar a la violencia de forma real, incluso si hacen uso de símbolos y términos velados. Esta política se usó para eliminar 709 grupos relacionados con el movimiento extremista de ultraderecha estadounidense QAnon.

   Además, Facebook dejará de recomendar grupos con temática sobre salud de las recomendaciones para potenciar las fuentes fiables, y ha comenzado a utilizar un nuevo enfoque para combatir la desinformación en los grupos.

   De esta manera, la red social eliminará grupos en los que los administradores aprueben de forma repetida contenidos que violen las normas de la plataforma, reducirá la distribución de todos contenidos de los grupos en los que se comparta desinformación y comenzará a mostrar una etiqueta en los grupos cuando el contenido haya sido desmentido por verificadores independientes.