Estas son las normas ‘sucias’ de moderación que Facebook utiliza

Todo indica a que Facebook no va a terminar el peor año de su historia de buena manera. Tras todos los escándalos en los que la red social ha estado involucrada a lo largo de este 2018, ahora el New York Times ha sacado al luz más de 1,400 páginas de documentos filtrados que, entre otras cosas, explican las normas por las que la compañía se rige para moderar el contenido de su plataforma.

En esta información también se aprecia la forma en que Facebook supervisa las publicaciones y parece que es algo (intencionalmente) «deficiente». Los documentos obtenidos por el diario son guías en formato Power Point en las que se basan sus más de 7,500 moderadores para tratar el contenido que pueda considerarse problemático.

Según explica el reporte de NYT, estos moderadores no pertenecen propiamente a la compañía sino que el trabajo de moderación está subcontratado. La ironía llega al punto de que «algunos moderadores confían en Google Translate para tomar decisiones ante un supuesta infracción de las políticas de contenido de los usuarios», informa el periódico, lo cual es realmente es poco fiable dados los reversos del lenguaje y los problemas de  traducción de las plataformas que prestan este tipo de servicios.

Dentro de los documentos se tratan las definiciones de términos como «mártir» o «Jihad» y el contexto en el que se pueden interpretar como apología del terrorismo. La investigación ha sido llevada a cabo por Max Fisher, quien tras publicar el reporte dijo en su cuenta de Twitter que «Facebook está cometiendo muchos, muchos errores en sus esfuerzos por controlar el contenido dentro de la red social».

Por último pero no menos importante, el reporte también señala que en territorios donde Facebook tiene presión adicional de control de contenido exigido por parte del gobierno, como en Alemania —donde se filtran grupos de extrema derecha—, la moderación del contenido suele ser más estricta aunque no más eficiente e imparcial que en el resto del mundo.