Publicado 17/09/2019 19:01

La reacción de Facebook a los problemas que reveló el tiroteo de Christchurch en su lucha contra el terrorismo

La reacción de Facebook a los problemas que reveló el tiroteo de Christchurch en
La reacción de Facebook a los problemas que reveló el tiroteo de Christchurch en - PIXABAY/CC/LOBOSTUDIOHAMBURG - Archivo

   MADRID, 17 Sep. (Portaltic/EP) -

   El tiroteo en Christchurch (Nueva Zelanda) en marzo "ha influido fuertemente" en los cambios que Facebook ha introducido en las políticas de las plataformas Facebook e Instagram y a la forma en que la compañía combate los grupos terroristas y de violencia extrema.

   Los cambios introducidos por la compañía afectan principalmente a su política para personas y organizaciones peligrosas. Como explica en un comunicado, muchos de ellos son previos al tiroteo de Christchurch, cuando el autor del ataque a dos mezquitas llegó a retransmitir en directo 17 minutos.

   Algunas de las actualizaciones se implementaron hace unos meses, mientras que otras lo hicieron el año pasado. Sin embargo, el ataque a Christchurch y sobre todo, "la respuesta global" que supuso Christchurch Call to Action, "ha influido fuertemente las actualizaciones recientes de nuestras políticas y su aplicación", explican desde Facebook.

   Esto se debe a que, como detallan desde la compañía, "el ataque demostró el mal uso de la tecnología para difundir expresiones radicales de odio" al tiempo que resaltó lo que había que mejorar a la hora de detectar y actuar contra los contenidos de violencia extrema.

   Uno de esos puntos se refiere a Facebook Live, la herramienta que usó el autor del tiroteo para retransmitir a todo el mundo un ataque que acabó con 51 muertos y 50 heridos. Antes de su retirada de la red social, llegó a tener más de 4.000 visitas.

   'Christchurch Call' denunció entonces que este vídeo permanecería "disponible en la web a pesar de las medidas tomadas para retirarlo", y se presentó como un "compromiso entre gobiernos y empresas tecnológicas para eliminar el contenido terrorista y de violencia extrema en línea".

   Para eliminar contenidos no permitidos en la red social, Facebook emplea herramientas de inteligencia artificial, entrenadas para su detección e identificación. Como explican, no pudieron detectar a tiempo la retransmisión de Christchurch porque no tenían "suficiente contenido que mostrara metraje en primera persona de eventos violentos para entrenar efectivamente nuestra tecnología de aprendizaje automático".

   Para evitar que se repita, han solicitado la colaboración de los cuerpos de seguridad de Estados Unidos y Reino Unido para contar con grabaciones de sus programas de entrenamiento de tiro poder mejorar la detección de eventos violentos en primera persona del mundo real, y distinguirlos, además, de películas o videojuegos.

    Definir qué es terrorismo se presenta como clave para poder combatir a estos grupos de violencia extrema. En este sentido, Facebook ha ampliado su definición, que no se limita a las pretensiones políticas e ideológicas detrás de la violencia ejercida por estos grupos, sino que también tiene en cuenta cuando la dirigen hacia los civiles con la intención de coaccionar e intimidar.

   Asimismo, y para ayudar a contrarrestar el discurso violento y de odio, Facebook ha extendido a Australia e Indonesia la iniciativa que representa 'Life After Hate' (vida después del odio), una organización conformada por antiguos extremistas y supremacistas que provee de recursos educaciones como respuesta a términos de búsqueda asociados con la violencia y el odio.

   Facebook también ha reestructurado el equipo multidisciplinar de expertos en seguridad y contraterrorismo, que les ayuda a mejorar sus herramientas de detección. Ahora, cuenta con 350 miembros, y tiene en cuenta también a "todas las personas y organizaciones que proclaman o están involucradas en actos de violencia que provocan daños en el mundo real".