Facebook trabaja para evitar contenidos sospechosos con centro de control

14184335Facebook-Red-Social-Celular

Cada día 1.490 millones de personas se conectan a Facebook y cada día la red revisa dos millones de piezas de contenido sospechoso. Asediada por los escándalos, la compañía trata de frenar el racismo, el terrorismo y las noticias falsas: ¿Es posible controlar la conversación de millones de personas?

Para hacer frente a esta tarea Facebook acaba de abrir en Barcelona un centro de control de contenidos que contará con 800 moderadores y que abrió sus puertas a un grupo de periodistas.

“Nuestro trabajo es crear un espacio seguro para todos los usuarios. Es duro, en todas las comunidades hay buenos y malos”, reconoce el director de Community Operations de la compañía, David Geraghty, quien asegura que el sistema de control de contenidos de Facebook es uno de los “más sofisticados” del mundo.

La red social tiene dos maneras de detectar contenido sospechoso: las denuncias de usuarios y un sistema de inteligencia artificial y ‘machine learning’ que lo identifica de manera automática. “Antes éramos más reactivos, ahora somos más proactivos”, reconoce.

Este último es, por ejemplo, responsable de que el 99 por ciento del contenido terrorista que se intenta distribuir por la red sea detectado antes de publicarse, aunque un humano siempre tiene la última palabra.

La moderación de contenidos “no es un trabajo de oficina normal” y tampoco es para todo el mundo; en ocasiones los controladores tienen que ver imágenes que pueden generar mucho estrés como violencia gráfica, abuso a niños o contenido terrorista, explica Ulf Herbrechter, responsable de CCC, la empresa que gestiona el centro.

El equipo de Facebook dedicado a control de contenidos supera los 30.000 empleados en todo el mundo -la mitad son moderadores-, una parte se dedica a revisar y modificar de manera periódica la extensa política de contenidos de la plataforma.Efe