Grabaciones encubiertas revelan la verdad de la moderación de contenido de Facebook
La moderación de Facebook está en entredicho, después de unas grabaciones encubiertas que muestran cómo la compañía permite contenido violento y de odio.
18 julio, 2018 20:45Noticias relacionadas
- El nuevo doodle de Google celebra el aniversario del Apolo 11 y la llegada a la Luna
- Cuando veas porno vigila la puerta... y la privacidad: Google y Facebook saben lo que ves
- La muerte de los "likes": Instagram empieza a ocultarlos
- DAZN, el Netflix de los deportes, emitirá los Juegos Olímpicos, Roland Garros, la Fórmula E y más, pero sube el precio
Unas grabaciones encubiertas en la moderación de Facebook revelan cómo la compañía se salta sus reglas indiscriminadamente.
Una de las preguntas que mas se repitió en las citas de Mark Zuckerberg con representantes políticos a tenor del escándalo de Cambridge Analytica fue “¿Cómo se decide qué contenido puede ser publicado y qué debe ser borrado?”.
La proliferación de “fake news”, del discurso del odio y de violencia en Facebook es un hecho; sin embargo, Zuckerberg siempre soltó la respuesta estándar. Que Facebook tiene unas serias políticas contra ese tipo de contenido; y que usa una mezcla de empleados humanos y sistemas automatizados para borrarlo.
Grabaciones encubiertas en la moderación de Facebook ponen en entredicho a la compañía
Sin embargo, una investigación de la televisión británica Channel 4 revela que la moderación de Facebook ignora esas reglas; y es por eso que hay contenido que claramente las vulnera, pero que sigue accesible desde hace años.
La revelación se ha conseguido gracias a un investigador, que se infiltró con éxito en CPL Resources; esta compañía de Dublín lleva ocho años trabajando con Facebook en moderar el contenido de la red social. Para ello, empleados humanos tienen que revisar millones de post denunciados, en busca de contenido que podría vulnerar las reglas.
Sin embargo, la investigación revela que Facebook permite contenido que supuestamente tiene prohibido, dependiendo de quién lo publique. Por ejemplo, los grupos de extrema derecha parecen tener la misma consideración que gobiernos o medios de noticias; por lo tanto, se les permite publicar cosas que serían borradas en cualquier otra situación. Desde mensajes de odio o publicación de noticias falsas, estos grupos gozan de mayor libertad.
This graphic video depicting a child abuser beating a young boy was left on Facebook for several years, despite requests to have it taken down.#Dispatches went undercover to investigate why the social media network is leaving extreme content on its site.
WATCH NOW @Channel4. pic.twitter.com/3Ft6H5d64q
— Channel 4 Dispatches (@C4Dispatches) 17 de julio de 2018
Uno de los vídeos más polémicos es el de un niño sufriendo una agresión; según los moderadores, el vídeo lleva años circulando por Facebook, pero los moderadores saben que no deben borrarlo. Eso es porque, según uno de los entrenadores de la empresa, un vídeo de abuso grabado hace años es poco probable que meta en problemas a Facebook.
La publicación de memes racistas también es permitida; según el instructor, da igual las implicaciones de una imagen, hasta que no se den “ciertos pasos” los moderadores deben ignorarlas.
Facebook responde, pero ¿cambiará algo?
Facebook ha respondido a este reportaje, afirmando que muchas de las cosas que se ven en los vídeos van en contra de sus políticas. En una entrada de post, Facebook ha negado que otorgue protecciones especiales a grupos particulares, sin importar su ideología; afirma que es posible que algunos grupos no sean eliminados inmediatamente porque quieren asegurarse de que no son eliminados injustamente.
Dispatches reveals the racist meme that Facebook moderators used as an example of acceptable content to leave on their platform.
Facebook have removed the content since Channel 4’s revelations.
Warning: distressing content. pic.twitter.com/riVka6LcPS— Channel 4 Dispatches (@C4Dispatches) 17 de julio de 2018
Sin embargo, al mismo tiempo Facebook concede que el reportaje muestra “errores” en su sistema de moderación, y agradece a los periodistas la publicación; Facebook está investigando qué es lo que sucedió para evitar que vuelva a pasar en otros centros de moderación.
Las respuestas de Facebook serían suficientes, sino fuera porque nada de esto es nuevo. Desde los vídeos violentos hasta los grupos extremistas, no es algo que haya aparecido de la noche a la mañana; cuesta creer que sea un simple problema de que los instructores no hayan sido debidamente informados, como apunta la compañía.