MADRID, 30 May. (Portaltic/EP) -
Facebook ha registrado un aumento en el contenido de tipo violento y en los comportamientos de acoso en la red social durante el primer trimestre de 2025, a pesar de que ha reducido sus errores de moderación en un 50 por ciento y ha disminuido la cantidad de contenido eliminado por incumplir sus políticas.
La compañía anunció en enero un cambio en su sistema de moderación, con el que dejó de utilizar los verificadores externos para apostar por el programa de las notas de la comunidad. Igualmente, la tecnológica también anunció una serie de medidas para "facilitar la libertad de expresión" y reducir los errores de moderación, con cambios en sus políticas contra el discurso de odio.
Ahora, Meta ha compartido su informe de integridad del primer trimestre de 2025, donde ha mostrado por primera vez cómo han afectado dichos cambios en el sistema de moderación y sus políticas contra los discursos de odio, con consecuencias como ligeros aumentos en el contenido violento y comportamientos de acoso.
En concreto, la compañía ha señalado que ha conseguido reducir los errores de moderación "a la mitad" entre el cuarto trimestre de 2024 y el final del primer trimestre de este año. Estos errores de moderación incluyen la eliminación de contenido que no infringía realmente sus políticas.
Para ello, Meta ha señalado que han empleado medidas como auditar sus sistemas automatizados para hallar dónde se estaban cometiendo más errores de moderación y, tras ello, desactivarlos para mejorar sus resultados. Asimismo, han utilizado señales adicionales para mejorar la precisión de otros clasificadores.
Siguiendo esta línea, también se han elevado los umbrales de los sistemas automatizados de moderación, aumentando la revisión del contenido para asegurar si realmente está violando las políticas de Meta antes de eliminarlo, en algunos casos, "exigiendo múltiples capas de revisión".
En este sentido, Meta ha puntualizado que sus sistemas para gestionar el contenido en sus plataformas "se ha vuelto cada vez más complejos", por lo que trabajan para "encontrar el equilibrio adecuado".
"Si nuestra aplicación es demasiado limitada, corremos el riesgo de pasar por alto contenido potencialmente infractor, mientras que si es demasiado amplia, cometemos demasiados errores, lo que expone a demasiadas personas a medidas de control frustrantes", ha matizado.
AUMENTO EN EL CONTENIDO VIOLENTO Y DE ACOSO
A pesar de esta mejora en los errores de moderación, la compañía ha registrado un "ligero aumento" en la prevalencia de contenido sobre acoso e intimidación en Facebook. Concretamente, el porcentaje de este contenido ha aumentado de 0,07 al 0,08 y se ha debido principalmente a un "aumento repentino en la cantidad de contenido infractor" compartido en marzo.
También se ha registrado un aumento en el contenido violento y gráfico en Facebook, donde ha aumentado del 0,07 por ciento al 0,09 por ciento, debido igualmente a un incremento en la cantidad de contenido infractor compartido.
Por otra parte, en diversas áreas de política, Meta ha observado una disminución en la cantidad de contenido procesado, así como un descenso en la cantidad de "contenido apelado y finalmente restaurado".
REDUCCIÓN EN LA ELIMINACIÓN DE CONTENIDO
En general, con el nuevo sistema de moderación, Meta ha reducido la cantidad de contenido eliminado en sus plataformas durante el primer trimestre de 2025, con casi un tercio menos de contenido eliminado en Facebook e Instagram a nivel por incumplimiento de sus pautas, según ha recogido Wired.
Concretamente, Meta ha eliminado alrededor de un 50 por ciento menos de publicaciones por violar sus reglas de 'spam', un 36 por ciento menos de contenido no apto para niños y cerca de un 29 por ciento menos de publicaciones que representaban conductas de odio.
Con todo ello, Meta ha señalado que planea ampliar su Informe de Cumplimiento de las Normas Comunitarias para incluir métricas sobre sus errores. De esta manera, los usuarios podrán "monitorizar" su progreso en este ámbito.