Facebook está llevando a cabo grandes e importantes cambios dentro de la red social, después que haya ocurrido el grave problema con Cambridge Analytica. Entre los cambios introducidos, la mayoría son relativos a la política de privacidad y los términos y condiciones de uso. Respecto a esto último, al fin la compañía de Mark Zuckerberg ha empezado a dejar más claro a la comunidad qué se puede publicar y qué no. Y ahora ha dado a los usuarios más herramientas para quejarse, si sus filtros de contenido fallan y se ha aplicado algún tipo de ‘censura’ por error.
Al fin, la compañía de Mark Zuckerberg ha hecho público un libro –sí, un libro- con las pautas de los moderadores para controlar la comunidad de 2.200 millones de usuarios que conforman Facebook. En este ‘libro’ se señala de manera específica qué es lo que viola su política y, por lo tanto, contra qué tipo de contenidos se toman medidas. Para que estas medidas se cumplan, la red social cuenta con 7.500 personas que se dedican a moderar la comunidad, un 40% más que el año pasado. Ahora bien, a finales de este mismo año se espera que se alcancen los 20.000 moderadores, que más adelante se verán ayudados por la tecnología de inteligencia artificial.
Ahora Facebook te avisa si borra algo que has publicado, te deja pedir explicaciones, y de antemano te dice qué no debes publicar
La compañía de Mark Zuckerberg ha cambiado por completo su estrategia. En primer lugar, porque han descubierto al completo qué pautas siguen, o qué criterio, para determinar qué no se debe publicar. Pero además, porque ahora avisan a los usuarios cuando uno de sus contenidos publicados es eliminado; tanto mensajes en publicaciones como publicaciones al completo, ya sean de texto, vídeo o imagen. Y en esta alerta, Facebook nos da la opción de registrar una protesta justificada y solicitar que ese contenido eliminado sea repuesto dentro de la red social, algo que antes no se podía hacer de manera tan sencilla.
Dentro de esta página podemos leer con precisión qué se puede publicar, y qué no, y además podemos ver cómo debe actuar un moderador en caso de que se encuentre uno de estos ‘contenidos prohibidos’. De esta manera, los usuarios sí pueden tomar mayor control sobre la moderación de contenidos, y se pueden evitar errores de ‘filtro’ que han llegado a ser considerados, a priori de forma errónea, como una medida de censura.